JP2011147469A - Biological information acquisition device - Google Patents

Biological information acquisition device Download PDF

Info

Publication number
JP2011147469A
JP2011147469A JP2010008694A JP2010008694A JP2011147469A JP 2011147469 A JP2011147469 A JP 2011147469A JP 2010008694 A JP2010008694 A JP 2010008694A JP 2010008694 A JP2010008694 A JP 2010008694A JP 2011147469 A JP2011147469 A JP 2011147469A
Authority
JP
Japan
Prior art keywords
image
light
unit
sensor
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010008694A
Other languages
Japanese (ja)
Inventor
Daisuke Niwa
大介 丹羽
Masahide Tanaka
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2010008694A priority Critical patent/JP2011147469A/en
Publication of JP2011147469A publication Critical patent/JP2011147469A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a biological information acquisition device which can be easily used in daily life. <P>SOLUTION: This invention provides a cellular phone which can perform skin moisture measurement, skin photographing, vein pattern detection, pulse wave detection and blood oxygen saturation measurement, etc., on the basis of the received light information of a photoelectric conversion part having a plurality of light receiving parts provided with quantum efficiency ≥60% in a visible light region and an infrared light region respectively, and regularly arrayed in order to pick up images by the light of a plurality of wavelength regions. The erroneous measurement due to sweat or the like is prevented. One kind of a light emitting diode is used also as a light source for detecting the plurality of wavelength regions in the photoelectric conversion part. The wavelength region of a solar blind region is adopted. A focus is determined on the basis of the images of the plurality of wavelength regions. Display brightness is adjusted by the output of the photoelectric conversion part. A display backlight is used also for imaging illumination. When a measuring wavelength light source is lighted, the backlight is put out for skin proximity detection. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、生体情報取得装置に関する。 The present invention relates to a biological information acquisition apparatus.

生体情報取得装置に関しては種々の提案が行われており、健康チェックの面からの関心が高まっている。例えば、特開平11−19060号公報(特許文献1)や、特開2003−169788号公報(特許文献2)には、種々の肌水分検知装置が提案されている。   Various proposals have been made regarding biometric information acquisition apparatuses, and interest from the aspect of health check is increasing. For example, various skin moisture detection devices are proposed in Japanese Patent Application Laid-Open No. 11-19060 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2003-169788 (Patent Document 2).

特開平11−19060号公報Japanese Patent Laid-Open No. 11-19060 特開2003−169788号公報JP 2003-169788 A

しかしながら、使用の容易な生体情報取得装置を日常生活に供するにはさらに検討すべき課題が多い。 However, there are many problems that should be further studied in order to provide an easy-to-use biometric information acquisition apparatus for daily life.

本発明の課題は、上記に鑑み、日常生活で容易に使用できる生体情報取得装置を提案することにある。 In view of the above, an object of the present invention is to propose a biological information acquisition apparatus that can be easily used in daily life.

上記課題を達成するため、本発明は、それぞれ可視光域および赤外光域において60%以上の量子効率を有し複数の波長域の光を検知する光電変換部と、光線変換部により検知される受光情報に基づいて生体情報を取得する処理部とを有する生体情報取得装置が提供される。これによって効果的に生体情報を取得することが可能となる。本発明の具体的な特徴によれば、光電変換部は、複数の波長域の光による像を撮像するため規則的に配列された複数の受光部を有する。また、他の具体的な特徴によれば、光源として発光ダイオードを用いるとともに、一つのピーク波長の発光ダイオードを前記光電変換部における複数の波長域の検知の光源とする。上記の光電変換部における量子効率の特徴はこの具体的な特徴のために有用である。なお、本発明の生体情報取得装置は携帯電話に組み込んで構成するのに好適である。 In order to achieve the above object, the present invention is detected by a photoelectric conversion unit that detects light in a plurality of wavelength regions having a quantum efficiency of 60% or more in a visible light region and an infrared light region, respectively, and a light beam conversion unit. There is provided a biological information acquisition apparatus having a processing unit that acquires biological information based on received light information. This makes it possible to acquire biological information effectively. According to a specific feature of the present invention, the photoelectric conversion unit includes a plurality of light receiving units regularly arranged to capture images of light in a plurality of wavelength ranges. According to another specific feature, a light-emitting diode is used as a light source, and a light-emitting diode having one peak wavelength is used as a light source for detecting a plurality of wavelength ranges in the photoelectric conversion unit. The characteristics of the quantum efficiency in the photoelectric conversion unit described above are useful for this specific characteristic. The biometric information acquisition apparatus according to the present invention is suitable for being built in a mobile phone.

本発明の具体的な特徴によれば、光電変換部により肌水分の情報が取得される。より具体的な特徴によれば、肌水分の情報は前記光電変換部により非接触で取得されるとともに、取得された肌水分が通常測定範囲外にあることを判定する手段を有する。これによって、汗などの影響による誤測定を防止することができる。他の具体的な特徴によれば、光電変換部により静脈パターンの情報が取得される。このように構成することによって、光線変換部を肌水分の測定および静脈パターンの情報の取得という、ともに生体が近接する状況での情報取得に兼用することができる。他の具体的な特徴によれば、前記光電変換部により脈波の情報が取得され、さらには光電変換部により取得される脈波の情報に基づいて血中酸素飽和度が取得される。このように構成することによって、光線変換部を肌水分の測定および脈波の情報の取得という、ともに生体が近接する状況での情報取得に兼用することができる。また、静脈パターンの情報の取得と脈波の情報の取得が組み合わされる場合は、生体認証のための静脈パターン取得のたびに併せて健康状態をチェックすることができる。さらに他の具体的な特徴によれば、光線変換部により肌の撮像が行われ、肌水分の数値と合わせ、多角的に肌の状態をチェックすることができる。 According to a specific feature of the present invention, skin moisture information is acquired by the photoelectric conversion unit. According to a more specific feature, the skin moisture information is acquired by the photoelectric conversion unit in a non-contact manner, and has means for determining that the acquired skin moisture is outside the normal measurement range. Thereby, erroneous measurement due to the influence of sweat or the like can be prevented. According to another specific feature, vein pattern information is acquired by the photoelectric conversion unit. By configuring in this way, the light beam conversion unit can be used for both the measurement of skin moisture and the acquisition of vein pattern information for information acquisition in a situation where the living body is in close proximity. According to another specific feature, pulse wave information is acquired by the photoelectric conversion unit, and blood oxygen saturation is acquired based on the pulse wave information acquired by the photoelectric conversion unit. By configuring in this way, the light beam conversion unit can be used for both information acquisition in the situation where the living body is in close proximity, that is, measurement of skin moisture and acquisition of pulse wave information. When the acquisition of vein pattern information and the acquisition of pulse wave information are combined, the health condition can be checked together with the acquisition of the vein pattern for biometric authentication. According to still another specific feature, imaging of the skin is performed by the light beam conversion unit, and the skin condition can be checked in a multifaceted manner together with the skin moisture value.

本発明の他の具体的な特徴によれば、複数の波長域の一つは太陽光が地表に到達しない領域に設定される。これによって、太陽光の外乱の影響を除去した測定が可能となる。他の具体的な特徴によれば、波長域の光による複数の波長域の像に基づき対象物へのピント状態を判定する判定部が生体情報取得装置に設けられる。上記の光電変換部における広い波長域に渡る高量子効率の特徴はこの具体的な特徴のために有用である。 According to another specific feature of the invention, one of the plurality of wavelength regions is set to a region where sunlight does not reach the ground surface. As a result, measurement without the influence of sunlight disturbance can be performed. According to another specific feature, the biometric information acquisition apparatus includes a determination unit that determines a focus state on an object based on an image of a plurality of wavelength regions by light of a wavelength region. The feature of high quantum efficiency over a wide wavelength range in the above-described photoelectric conversion unit is useful for this specific feature.

本発明の他の特徴によれば、複数の波長域の光を検知する光電変換部と、光電変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示する表示部と、光電変換部の出力により表示部の表示明るさを調節する制御部とを有する生体情報取得装置が提供される。これによって、情報取得後の情報表示の際においても光電変換部の出力を有効に活用できる。 According to another feature of the present invention, a photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the photoelectric conversion unit, and the acquired biological information A biological information acquisition device is provided that includes a display unit that displays and a control unit that adjusts the display brightness of the display unit based on the output of the photoelectric conversion unit. Accordingly, the output of the photoelectric conversion unit can be effectively used even when displaying information after information is acquired.

本発明の他の特徴によれば、複数の波長域の光を検知する光電変換部と、光電変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示するとともにバックライトを備えた表示部と、光電変換部により生体情報を取得するときは対象物を照明するためにバックライトを点灯させる制御部とを有する生体情報取得装置が提供される。この構成によれば、例えば光電変換部を近接させて肌の撮像を行う場合、肌に面する表示部のバックライトを利用して近接状態で肌を照明することができる。 According to another feature of the present invention, a photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the photoelectric conversion unit, and the acquired biological information There is provided a biological information acquisition apparatus that includes a display unit that displays and includes a backlight, and a control unit that turns on the backlight to illuminate an object when biological information is acquired by the photoelectric conversion unit. According to this configuration, for example, when the skin is imaged with the photoelectric conversion unit in proximity, the skin can be illuminated in the proximity state using the backlight of the display unit facing the skin.

本発明の他の特徴によれば、複数の波長域の光を検知する光電変換部と、光線変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示するとともにバックライトを備えた表示部と、検知のための光源部と、光電変換部が対象物に近接しているかどうかを検知する近接検知部と、近接検知部が対象物の近接を検知すると光源部を点灯させるとともにバックライトを消灯させる制御部とを有する生体情報取得装置が提供される。この構成によれば、例えば光源部からの特定の波長の光を用いて肌水分等を測定する場合において、バックライトが測定に悪影響を与えることを防止できる。 According to another feature of the present invention, a photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the light beam conversion unit, and the acquired biological information A display unit that displays and has a backlight, a light source unit for detection, a proximity detection unit that detects whether the photoelectric conversion unit is close to the object, and a proximity detection unit that detects the proximity of the object Then, a biological information acquisition apparatus having a control unit that turns on the light source unit and turns off the backlight is provided. According to this configuration, for example, when measuring skin moisture using light of a specific wavelength from the light source unit, it is possible to prevent the backlight from adversely affecting the measurement.

上記のように、本発明によれば、日常生活で容易に使用できる生体情報取得装置を提供することができる。   As described above, according to the present invention, a biological information acquisition device that can be easily used in daily life can be provided.

本発明の第1実施例を示すブロック図である。(実施例1)It is a block diagram which shows 1st Example of this invention. (Example 1) 図1の測光兼用AFセンサおよびライブビューセンサの構成を関連する部分とともに詳細に示したブロック図であるFIG. 2 is a block diagram showing in detail the configuration of the photometry / AF sensor and the live view sensor of FIG. 1 together with related portions. 図2のCIGS撮像センサおよびCIGSAFセンサに用いられるCIGSセンサの分光感度をシリコンのCMOSセンサと比較したグラフである。It is the graph which compared the spectral sensitivity of the CIGS sensor used for the CIGS imaging sensor and CIGSAF sensor of FIG. 2 with the silicon CMOS sensor. 第1実施例におけるカメラ制御部の動作のフローチャートである。It is a flowchart of operation | movement of the camera control part in 1st Example. 本発明の第2実施例を示すブロック図である。(実施例2)It is a block diagram which shows 2nd Example of this invention. (Example 2) 第2実施例におけるカメラ制御部の動作のフローチャートである。It is a flowchart of operation | movement of the camera control part in 2nd Example. 図2または図5のライブビューセンサに用いられるCIGS撮像センサのカラーフィルタ配列の第1例である。It is a 1st example of the color filter arrangement | sequence of the CIGS imaging sensor used for the live view sensor of FIG. 2 or FIG. CIGS撮像センサのフィルタ配列の第2例である。It is a 2nd example of the filter arrangement | sequence of a CIGS image sensor. 図8のフィルタ配列を採用したCIGSセンサの模式断面図である。It is a schematic cross section of the CIGS sensor which employ | adopted the filter arrangement | sequence of FIG. CIGS撮像センサのフィルタ配列の第3例である。It is a 3rd example of the filter arrangement | sequence of a CIGS image sensor. 図5の第2実施例においてライブビューセンサの画像を記録する際のカメラ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera control part at the time of recording the image of a live view sensor in 2nd Example of FIG. 図11のステップS108およびステップS114に共通して利用できる処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which can be utilized in common with step S108 of FIG. 11, and step S114. 本発明の第3実施例を示すブロック図である。(実施例3)It is a block diagram which shows 3rd Example of this invention. Example 3 第3実施例に採用可能なLEDの配置の第1の例を示す正面図である。It is a front view which shows the 1st example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第2の例を示す正面図である。It is a front view which shows the 2nd example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第3の例を示す正面図である。It is a front view which shows the 3rd example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第4の例を示す正面図である。It is a front view which shows the 4th example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例のカラー・赤外モードでの動作タイミングチャートである。It is an operation | movement timing chart in the color and infrared mode of 3rd Example. 図18の動作とカラー画像作成の関係を示すタイミングチャートである。19 is a timing chart showing the relationship between the operation of FIG. 18 and color image creation. 第3実施例の精細カラーモードでの動作タイミングチャートである。It is an operation | movement timing chart in the fine color mode of 3rd Example. 図20の動作とカラー画像作成の関係を示すタイミングチャートである。21 is a timing chart showing the relationship between the operation of FIG. 20 and color image creation. 第3実施例の赤外モードでの動作タイミングチャートである。It is an operation | movement timing chart in the infrared mode of 3rd Example. 第3実施例における内視鏡制御部の動作のフローチャートである。It is a flowchart of operation | movement of the endoscope control part in 3rd Example. 図23のステップS170の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S170 of FIG. 図24のステップS208の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S208 of FIG. 図23のステップS172の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S172 of FIG. 第3実施例におけるモニタ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the monitor control part in 3rd Example. 本発明の第4実施例のカラー・赤外モードでの動作タイミングチャートである。(実施例4)It is an operation | movement timing chart in the color and infrared mode of 4th Example of this invention. Example 4 第4実施例の精細カラーモードでの動作タイミングチャートである。It is an operation | movement timing chart in the fine color mode of 4th Example. 本発明の第5実施例を示すブロック図である。(実施例5)It is a block diagram which shows 5th Example of this invention. (Example 5) 第5実施例の車両用監視装置の詳細を距離検知原理とともに示したブロック図である。It is the block diagram which showed the detail of the monitoring apparatus for vehicles of 5th Example with the distance detection principle. 第5実施例のCIGS撮像センサによって撮像された画像の概念図である。It is a conceptual diagram of the image imaged by the CIGS image sensor of 5th Example. 第5実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 5th Example. 第5実施例における監視記録制御部の動作のフローチャートである。It is a flowchart of operation | movement of the monitoring recording control part in 5th Example. 図34のステップS336の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S336 of FIG. 図34のステップS308および図35のステップS346の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S308 of FIG. 34, and step S346 of FIG. 本発明の第6実施例の車両用監視装置の詳細を距離検知原理とともに示したブロック図である。(実施例6)It is the block diagram which showed the detail of the monitoring apparatus for vehicles of 6th Example of this invention with the distance detection principle. (Example 6) 第6実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS imaging sensor in 6th Example. 図37の第6実施例における監視記録制御部の動作のフローチャートである。It is a flowchart of operation | movement of the monitoring recording control part in 6th Example of FIG. CIGS撮像センサのフィルタ配列の第4例であり、本発明の第7実施例に用いられる。(実施例7)It is a 4th example of the filter arrangement | sequence of a CIGS image sensor, and is used for the 7th Example of this invention. (Example 7) 第7実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 7th Example. 本発明の第8実施例の前方および車両用監視装置に用いられるCIGS撮像センサのカラーフィルタの分光透過特性のグラフである。(実施例8)It is a graph of the spectral transmission characteristic of the color filter of the CIGS imaging sensor used for the front of the 8th Example of this invention, and the monitoring apparatus for vehicles. (Example 8) 本発明の第9実施例の携帯電話における上面外観図である。(実施例9)It is an upper surface external view in the mobile telephone of 9th Example of this invention. Example 9 図43の実施例9のブロック図である。It is a block diagram of Example 9 of FIG. 第9実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長を説明するためのグラフである。It is a graph for demonstrating the spectral transmission characteristic of the filter of the CIGS image sensor in 9th Example, and the peak wavelength of an image sensor light source part. 第9実施例におけるCIGS撮像センサのカラーフィルタ配列の例である。It is an example of the color filter arrangement | sequence of the CIGS imaging sensor in 9th Example. 第9実施例に採用可能なLEDの配置の例を示す正面図である。It is a front view which shows the example of arrangement | positioning of LED employable for 9th Example. 第9実施例における制御部の動作のフローチャートである。It is a flowchart of operation | movement of the control part in 9th Example. 図48のステップ458の詳細を示すフローチャートである。It is a flowchart which shows the detail of step 458 of FIG. 図48のステップS464の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S464 of FIG. 携帯電話において実施される本発明の第10実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長のグラフである。(実施例10)It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 10th Example of this invention implemented in a mobile telephone, and the peak wavelength of an image sensor light source part. (Example 10) 第10実施例におけるCIGS撮像センサのカラーフィルタ配列の例である。It is an example of the color filter arrangement | sequence of the CIGS imaging sensor in 10th Example. 第10実施例に採用可能なLEDの配置の例を示す正面図である。It is a front view which shows the example of arrangement | positioning of LED employable as a 10th Example. 携帯電話において実施される本発明の第11実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長のグラフである。(実施例11)It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 11th Example of this invention implemented in a mobile telephone, and the peak wavelength of an image sensor light source part. (Example 11) 第11実施例におけるCIGS撮像センサのカラーフィルタ配列の例である。It is an example of the color filter arrangement | sequence of the CIGS imaging sensor in 11th Example. 第11実施例に採用可能なLEDの配置の例を示す正面図である。It is a front view which shows the example of arrangement | positioning of LED employable as 11th Example. 携帯電話において実施される本発明の第12実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長のグラフである。(実施例12)It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 12th Example of this invention implemented in a mobile telephone, and the peak wavelength of an image sensor light source part. Example 12 第12実施例におけるCIGS撮像センサのカラーフィルタ配列の例である。It is an example of the color filter arrangement | sequence of the CIGS imaging sensor in 12th Example. 第12実施例に採用可能なLEDの配置の例を示す正面図である。It is a front view which shows the example of arrangement | positioning of LED employable as a 12th Example. 携帯電話において実施される本発明の第13実施例におけるシリコン撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長のグラフである(実施例13)(Example 13) It is a graph of the spectral transmission characteristic of the filter of the silicon image sensor in the 13th Example of this invention implemented in a mobile telephone, and the peak wavelength of an image sensor light source part.

図1は、本発明の実施の形態に係るオートフォーカスデジタル一眼レフカメラの第1実施例を示すブロック図である。オートフォーカスデジタル一眼レフカメラはカメラボディ2およびこれに交換可能に着脱される交換レンズ4を有している。交換レンズ4のレンズ光学系6から入射した被写体光は、観察位置にあるミラー8で上方に反射され、焦点板10の位置に結像する。この像はペンタリズム12で反射された後、アイピース14で観察され、撮像ための構図決めなどが行われる。 FIG. 1 is a block diagram showing a first example of an autofocus digital single-lens reflex camera according to an embodiment of the present invention. The autofocus digital single-lens reflex camera has a camera body 2 and an interchangeable lens 4 that is detachably attached to the camera body 2. The subject light incident from the lens optical system 6 of the interchangeable lens 4 is reflected upward by the mirror 8 at the observation position and forms an image at the position of the focusing screen 10. After this image is reflected by the pentarhythm 12, it is observed by the eyepiece 14, and a composition for imaging is determined.

撮影の際には、操作部15のシャッタレリーズボタンを操作することによって、ミラー8がオートフォーカス用サブミラー16とともに撮影位置に退避するとともにフォーカルプレーンシャッタ18が開き、交換レンズ4のレンズ光学系6から入射した被写体光が撮像部20に結像して撮像される。撮像部20によって撮像された画像情報は、画像処理部22で画像処理された後、カメラ制御部24の制御により画像記憶部26に記憶される。画像記憶部26に記憶された画像情報は、適宜媒体スロット28に挿入されたメモリーカードなどの記憶媒体に転送される。また、画像記憶部26に記憶された画像情報は、カメラ制御部24の制御により、適宜入出力部30から外部に転送することができる。なお、撮影直後の画像情報は、カメラ制御部24から表示部32に送られて自動的に表示されるので、操作者は撮像した画像を確認することができる。   At the time of shooting, by operating the shutter release button of the operation unit 15, the mirror 8 is retracted to the shooting position together with the auto-focusing sub mirror 16 and the focal plane shutter 18 is opened, and the lens optical system 6 of the interchangeable lens 4 is opened. The incident subject light is imaged and imaged on the imaging unit 20. Image information captured by the image capturing unit 20 is subjected to image processing by the image processing unit 22 and then stored in the image storage unit 26 under the control of the camera control unit 24. The image information stored in the image storage unit 26 is transferred to a storage medium such as a memory card inserted into the medium slot 28 as appropriate. The image information stored in the image storage unit 26 can be appropriately transferred from the input / output unit 30 to the outside under the control of the camera control unit 24. In addition, since the image information immediately after photographing is sent from the camera control unit 24 to the display unit 32 and automatically displayed, the operator can check the captured image.

画像再生の際には、操作部15の操作により、画像記憶部26または媒体スロット28に記憶された画像情報がカメラ制御部24によって読み出され、カメラボディ2の背面に設けられた液晶等からなる表示部32に表示される。以上が、図1のオートフォーカスデジタル一眼レフカメラにおける撮像および再生に関する基本構成および基本機能である。なお、上記から明らかなように、ミラー8が観察位置にあるときは、撮像部20による被写体像の撮像は行われないので、以上の構成だけではアイピース14で観察できるリアルタイムの被写体像は表示部32に表示されることはなく、撮影後に確認ができるだけである。この点が、デジタル一眼レフカメラの特殊性であり、表示部32の画像を観察しながら構図決めができる通常のコンパクトデジタルカメラと異なるところである。   When the image is reproduced, the image information stored in the image storage unit 26 or the medium slot 28 is read by the camera control unit 24 by the operation of the operation unit 15, and is read from the liquid crystal provided on the back surface of the camera body 2. Is displayed on the display unit 32. The above is the basic configuration and basic functions related to imaging and playback in the autofocus digital single-lens reflex camera of FIG. As apparent from the above, when the mirror 8 is at the observation position, the imaging unit 20 does not capture the subject image, so the real-time subject image that can be observed with the eyepiece 14 with the above configuration is not displayed on the display unit. 32 is not displayed and can only be confirmed after shooting. This is the special characteristic of a digital single lens reflex camera, which is different from a normal compact digital camera that can determine the composition while observing the image on the display unit 32.

次に、図1のオートフォーカスデジタル一眼レフカメラにおけるオートフォーカスに関する構成と機能について説明する。交換レンズ4のレンズ光学系6から入射した被写体光の一部は、観察位置にあるミラー8中央にある半透過部を透過し、サブミラー16で下方に反射されて測光兼用オートフォーカス(以下「AF」)センサに導かれる。測光兼用AFセンサ34はサブミラー16から入射する光をAFセンサ上に再結像して分析し結果をカメラ制御部24に送る。この分析は、例えば、よく知られている瞳分割による位相差検出方式などによって撮像部20の撮像面とレンズ光学系6による結像位置のずれ方向およびその程度を分析することによって行われる。カメラ制御部24は、測光兼用AFセンサ34から得られたレンズ光学系6による結像位置のずれ方向およびその程度の情報に基づき、結像位置のずれを解消するためのレンズ光学系6の駆動量および駆動方向の情報を、AF制御部36に送る。AF駆動部38は、カメラボディ2と交換レンズ4との機械的または電気的インターフェースによってAF制御部36から伝えられる駆動量および駆動方向の情報に基づいてレンズ光学系6を駆動し、自動焦点合わせを行う。なお、測光兼用AFセンサ34の構成の詳細については後述する。   Next, the configuration and functions related to autofocus in the autofocus digital single lens reflex camera of FIG. 1 will be described. Part of the subject light incident from the lens optical system 6 of the interchangeable lens 4 is transmitted through the semi-transmissive portion at the center of the mirror 8 at the observation position, and reflected downward by the sub mirror 16 to be used for photometry / autofocus (hereinafter referred to as “AF”). ]) Guided to the sensor. The photometry / use AF sensor 34 re-images the light incident from the sub-mirror 16 on the AF sensor, analyzes it, and sends the result to the camera control unit 24. This analysis is performed, for example, by analyzing the shift direction and the degree of the image formation position between the imaging surface of the imaging unit 20 and the lens optical system 6 by a well-known phase difference detection method using pupil division. The camera control unit 24 drives the lens optical system 6 to eliminate the deviation of the imaging position based on the information on the direction and degree of deviation of the imaging position by the lens optical system 6 obtained from the AF sensor 34 for photometry. Information on the amount and the driving direction is sent to the AF control unit 36. The AF driving unit 38 drives the lens optical system 6 on the basis of information on the driving amount and driving direction transmitted from the AF control unit 36 through a mechanical or electrical interface between the camera body 2 and the interchangeable lens 4 and performs automatic focusing. I do. The details of the configuration of the photometry / AF sensor 34 will be described later.

ライブビューセンサ40は、デジタル一眼レフカメラにおいて、通常のコンパクトデジタルカメラと同様にして、表示部32の画像を観察しながら構図決めができるようにするための「ライブビュー」機能のための構成である。ペンタプリズム12の反射面12a全体が半透過性になっており、ライブビューセンサ40は、焦点板10の画像をCIGS撮像センサ上に再結像させることにより、焦点版10の画像全体を撮像できるようになっている。CIGS撮像センサは、銅(Cu)、インジウム(In)、ガリウム(Ga)およびセレン(Se)を材料とする光センサであり、その詳細は後述する。   The live view sensor 40 is configured for a “live view” function in a digital single-lens reflex camera so that the composition can be determined while observing the image on the display unit 32 in the same manner as an ordinary compact digital camera. is there. The entire reflecting surface 12a of the pentaprism 12 is semi-transmissive, and the live view sensor 40 can capture the entire image of the focal plane 10 by re-imaging the image of the focusing screen 10 on the CIGS imaging sensor. It is like that. The CIGS imaging sensor is an optical sensor made of copper (Cu), indium (In), gallium (Ga), and selenium (Se), and details thereof will be described later.

ペンタプリズム12の反射面12aは、可視光領域以外はほぼ全面的に光を透過させるとともに、可視光領域では、わずかに光を透過させるだけで大半が反射する分光透過特性になっており、アイピース14で焦点版10の像を観察する際に実質的に像が暗くなることはない。また、ライブビューセンサ40に採用されているCIGS撮像センサは、後述するように可視光領域において高い感度を有しているので、可視光領域での反射面12aの光透過率がわずかであっても、可視光領域における焦点版10の像を充分撮像することが可能である。このライブビューセンサ40への可視光の配分は、アイピース14により光学的に被写体を観察し難い暗さになったとき、CIGS撮像センサによるライブビュー用の撮像についても光量不足となるレベルとする。CIGS撮像センサを用いたライブビューセンサ40の詳細については後述する。ライブビューセンサ40で撮像された画像はカメラ制御部24に送られ、これが表示部32で表示されるので、図1のオートフォーカスデジタル一眼レフカメラは、被写体が通常の明るさである限り、通常のコンパクトデジタルカメラと同様にして、表示部32の画像を観察しながら構図決めが可能である。 The reflection surface 12a of the pentaprism 12 transmits light almost entirely except in the visible light region, and has a spectral transmission characteristic in which most of the visible light region is reflected by only slightly transmitting light. When the image of the focal plate 10 is observed at 14, the image is not substantially darkened. Further, since the CIGS imaging sensor employed in the live view sensor 40 has high sensitivity in the visible light region as described later, the light transmittance of the reflecting surface 12a in the visible light region is slight. In addition, it is possible to sufficiently capture an image of the focal plate 10 in the visible light region. The distribution of the visible light to the live view sensor 40 is set to a level at which the light quantity is insufficient for the live view imaging by the CIGS imaging sensor when it becomes dark that it is difficult to optically observe the subject by the eyepiece 14. Details of the live view sensor 40 using the CIGS imaging sensor will be described later. Since the image captured by the live view sensor 40 is sent to the camera control unit 24 and displayed on the display unit 32, the autofocus digital single-lens reflex camera shown in FIG. 1 is normal as long as the subject has normal brightness. The composition can be determined while observing the image on the display unit 32 in the same manner as the compact digital camera.

図2は、図1のオートフォーカスデジタル一眼レフカメラの第1実施例における測光兼用AFセンサ34およびライブビューセンサ40の構成を関連する部分とともに詳細に示したブロック図である。ペンタプリズム12の反射面12aは、すでに述べたように可視光領域以外はほぼ全面的に光を透過させるとともに、可視光領域では、わずかに光を透過させるだけで大半が反射する分光透過特性を有するが、多層膜52はこのような分光透過特性を実現するために反射面12aにコーティングされたものである。 FIG. 2 is a block diagram showing in detail the configuration of the photometry / use AF sensor 34 and the live view sensor 40 in the first embodiment of the autofocus digital single-lens reflex camera of FIG. As described above, the reflecting surface 12a of the pentaprism 12 transmits light almost entirely except in the visible light region, and in the visible light region, has a spectral transmission characteristic in which most of the light is reflected by only slightly transmitting light. However, the multilayer film 52 is coated on the reflecting surface 12a in order to realize such spectral transmission characteristics.

ライブビューセンサ40は、このような多層膜52を透過した焦点面10からの光束をCIGS撮像センサ54の撮像面に再結像させるための再結像レンズ56を備えている。赤外光カットフィルタ58は、多層膜52を透過してきた可視光領域以外の光を実質的にカットしてCIGS撮像センサ54の波長感度特性を撮像部20の波長感度特性に近似させるものであり、視感度に一致した被写体像を撮像してカメラ制御部24に送り、図1の表示部32でのライブビューを可能にする。なお、本発明にいう「赤外光」とは主に「近赤外光」と称される比較的可視光に近い領域の赤外光線を指すが、学会により定義が必ずしも一定でないので、以下「赤外光」と略称する。 The live view sensor 40 includes a re-imaging lens 56 for re-imaging the light beam from the focal plane 10 that has passed through the multilayer film 52 on the imaging surface of the CIGS imaging sensor 54. The infrared light cut filter 58 substantially cuts light outside the visible light region that has been transmitted through the multilayer film 52 to approximate the wavelength sensitivity characteristic of the CIGS imaging sensor 54 to the wavelength sensitivity characteristic of the imaging unit 20. Then, a subject image that matches the visibility is picked up and sent to the camera control unit 24 to enable live view on the display unit 32 of FIG. The “infrared light” in the present invention mainly refers to infrared light in a region that is relatively close to visible light, which is called “near infrared light”. Abbreviated as “infrared light”.

ライブビューセンサ40は、さらに焦点板10における明るさを測定する全画面測光を可能にしている。つまり、CIGS撮像センサ54から出力される画像情報は、全画面にわたる測光情報としてもカメラ制御部24で処理され、必要に応じAF対応部分測光センサ72の出力と組合せ慮利される。そして、これら処理結果に基づいて交換レンズ4の絞り径、フォーカルプレーンシャッタ18によるシャッタ速度、および撮像部20の感度などをコントロールする自動露出制御が行われる。 The live view sensor 40 further enables full-screen photometry for measuring the brightness on the focusing screen 10. That is, the image information output from the CIGS imaging sensor 54 is processed by the camera control unit 24 as photometric information over the entire screen, and is combined with the output of the AF-compatible partial photometric sensor 72 as necessary. Based on these processing results, automatic exposure control is performed to control the aperture diameter of the interchangeable lens 4, the shutter speed by the focal plane shutter 18, the sensitivity of the imaging unit 20, and the like.

可視光カットフィルタ60は赤外光カットフィルタ58と差し替えてCIGS撮像センサ54への光路中に挿入されるもので、「長波長モード」にて使用されるものである。多層膜52からは可視光領域以外がほぼ全面的に透過してくるので、長波長モードの設定で赤外光カットフィルタ58に替えて可視光カットフィルタ60が光路に挿入された場合は、可視光よりも長波長側域の光がCIGS撮像センサ54に入射するようになる。CIGS撮像センサ54は、後述するように、長波長側が1300nmにおよぶ分光感度を持っている。従って、可視光カットフィルタ60の挿入によってライブビューセンサ40はこれら長波長域の光での撮影に好適な撮像センサとなる。そして、このような長波長域の画像出力を表示部32でリアルタイムに観察したり、画像記憶部26に記録したりすることが可能となる。 The visible light cut filter 60 is inserted in the optical path to the CIGS imaging sensor 54 in place of the infrared light cut filter 58, and is used in the “long wavelength mode”. Since the multilayer film 52 transmits almost the entire region other than the visible light region, when the visible light cut filter 60 is inserted in the optical path instead of the infrared light cut filter 58 in the long wavelength mode setting, it is visible. Light having a wavelength longer than that of the light enters the CIGS imaging sensor 54. As will be described later, the CIGS imaging sensor 54 has a spectral sensitivity of 1300 nm on the long wavelength side. Therefore, by inserting the visible light cut filter 60, the live view sensor 40 becomes an image sensor suitable for photographing with light in these long wavelength regions. Then, such an image output in the long wavelength region can be observed in real time on the display unit 32 or recorded in the image storage unit 26.

ミラー/フィルタ駆動部62は、操作部15によるモード切換に応じたカメラ制御部24の制御により、上記の可視光カットフィルタ60と赤外光カットフィルタ58の差し替えを駆動する。なお、図2では、撮影位置に退避したミラー8aおよびサブミラー16aが二点鎖線で図示されているが、このようなミラー8とサブミラー16における観察位置と撮影位置の間の駆動も、カメラ制御部24の制御によりラー/フィルタ駆動部62が行う。 The mirror / filter drive unit 62 drives replacement of the visible light cut filter 60 and the infrared light cut filter 58 under the control of the camera control unit 24 according to mode switching by the operation unit 15. In FIG. 2, the mirror 8a and the sub mirror 16a retracted to the photographing position are shown by two-dot chain lines. However, the driving between the observation position and the photographing position in the mirror 8 and the sub mirror 16 is also performed by the camera control unit. The L / filter driving unit 62 performs the control of 24.

測光兼用AFセンサ34の再結像レンズ64は、交換レンズ4から入射して観察位置にあるミラー8中央にある半透過部を透過し、サブミラー16で下方に反射される被写体光を再結像させるためのものである。再結像レンズ64からの光束は、波長選択性のない可動半透ミラー66および赤外光カットフィルタ68を透過してCIGSAFセンサ70上に結像する。CIGSAFセンサも、後述するように可視光領域において高い感度を有しており、暗い被写体であっても補助光なしに自動焦点検出が可能である。なお、赤外光カットフィルタ68は、CIGSAFセンサ70をAFセンサとして働かせるために有害な赤外光領域の波長をカットするものであり、CIGS撮像センサ54のための赤外光カットフィルタ58とは必ずしも特性が同じものではない。例えば、赤外光カットフィルタ8は赤外光カットフィルタ58よりも狭い透過分光特性に設定される。 The re-imaging lens 64 of the AF metering sensor 34 re-images the subject light incident from the interchangeable lens 4 and transmitted through the semi-transmissive portion at the center of the mirror 8 at the observation position and reflected downward by the sub-mirror 16. It is for making it happen. The light beam from the re-imaging lens 64 passes through the movable semi-transmissive mirror 66 and the infrared light cut filter 68 having no wavelength selectivity and forms an image on the CIGSAF sensor 70. The CIGSAF sensor also has high sensitivity in the visible light region, as will be described later, and can perform automatic focus detection without auxiliary light even for a dark subject. The infrared light cut filter 68 cuts the wavelength of the harmful infrared light region in order to make the CIGSAF sensor 70 work as an AF sensor. What is the infrared light cut filter 58 for the CIGS imaging sensor 54? The characteristics are not necessarily the same. For example, the infrared light cut filter 8 is set to have a transmission spectral characteristic narrower than that of the infrared light cut filter 58.

このため、被写体が通常の明るさのときに減光のために可動半透ミラー66を図示の位置に挿入し、CIGSAFセンサへの入射光量をCIGSAFセンサの感度ダイナミックレンジに合わせこむ。一方、被写体が通常のAFセンサでは補助光を必要とするような暗さになったときには可動半透ミラーを64aの位置に退避させ、減光なしに被写体像をCIGSセンサに結像させる。なお、このとき可動半透ミラー66の有無による光路長の補償が必要である。例えば、可動半透ミラー66を退避させたときには、これと光路長が等しい全透過性の並行平板を代わりに光路中に挿入する。また、当然ながら、可動半透ミラーが64aの位置に退避した状態では、AF対応部分測光センサ72による測光はできなくなる。 For this reason, when the subject has normal brightness, the movable semi-transparent mirror 66 is inserted at the position shown in the figure for dimming, and the amount of light incident on the CIGSAF sensor is adjusted to the sensitivity dynamic range of the CIGSAF sensor. On the other hand, when the subject becomes dark enough to require auxiliary light in a normal AF sensor, the movable semi-transparent mirror is retracted to the position 64a, and the subject image is formed on the CIGS sensor without dimming. At this time, it is necessary to compensate for the optical path length depending on the presence or absence of the movable semi-transmissive mirror 66. For example, when the movable translucent mirror 66 is retracted, a totally transmissive parallel plate having the same optical path length is inserted into the optical path instead. Of course, when the movable semi-transmissive mirror is retracted to the position 64a, photometry by the AF-compatible partial photometry sensor 72 cannot be performed.

CIGSAFセンサ70への減光のために再結像光路中に可動半透ミラー66が挿入されている時、これを反射した光は、AF対応部分測光センサ72に入射する。AF対応部分測光センサ72は、CIGSAFセンサによって焦点検出が行われている部分の明るさを測光するものであり、全画面のうちで焦点検出の対象となっている部分の明るさを選択的に測光することにより、撮影において関心の高い部分が適正露出になるよう自動露出制御するための情報として用いられる。このように、被写体が明るい時に過剰となるCIGSAFセンサ70への減光部分は、捨てられるのではなく、測光情報として有効に利用される。 When the movable semi-transmissive mirror 66 is inserted in the re-imaging optical path for dimming the light to the CIGSAF sensor 70, the light reflected therefrom enters the AF corresponding partial photometric sensor 72. The AF-corresponding partial photometric sensor 72 measures the brightness of the portion of the focus detected by the CIGSAF sensor, and selectively selects the brightness of the portion of the entire screen that is the focus detection target. By measuring the light, it is used as information for automatic exposure control so that a portion of high interest in photographing is appropriately exposed. As described above, the dimming portion to the CIGSAF sensor 70 that becomes excessive when the subject is bright is not discarded but is effectively used as photometric information.

AF対応部分測光センサ72からの部分測光情報は、ライブビューセンサ40のCIGS撮像センサ54からの全画面に関する測光情報と組合せてカメラ制御部24で処理され、最終的に、交換レンズ4の絞り径、フォーカルプレーンシャッタ18によるシャッタ速度、および撮像部20の感度などがコントロールされる。 The partial photometric information from the AF corresponding partial photometric sensor 72 is processed by the camera control unit 24 in combination with the photometric information on the entire screen from the CIGS imaging sensor 54 of the live view sensor 40, and finally the aperture diameter of the interchangeable lens 4. The shutter speed by the focal plane shutter 18 and the sensitivity of the imaging unit 20 are controlled.

センサ制御部74は、可動半透ミラー66が挿入されている時および退避しているときのいずれの場合においても、CIGSAFセンサ70の受光積分時間やゲインコントロールなどを行って、自動焦点調節を制御する。この受光積分時間やゲインコントロールを混乱なく行うためには、可動半透ミラー66が挿入されているのか退避しているのかの情報も用いられる。センサ制御部74は、また、CIGSAFセンサ70およびAF対応部分測光センサ72に指示を出し、全画面のうちで焦点検出の対象とすべき部分と選択的に測光する部分を一致させる制御を行い、それぞれ対応する焦点検出情報と測光情報をカメラ制御部24に出力させる。 The sensor control unit 74 controls the automatic focus adjustment by performing the light reception integration time and gain control of the CIGSAF sensor 70 regardless of whether the movable semi-transparent mirror 66 is inserted or retracted. To do. In order to perform the light receiving integration time and gain control without confusion, information on whether the movable semi-transparent mirror 66 is inserted or retracted is also used. The sensor control unit 74 also issues an instruction to the CIGSAF sensor 70 and the AF-corresponding partial photometric sensor 72, and performs control to match the portion to be subjected to focus detection with the portion to be subject to focus detection in the entire screen, The camera control unit 24 outputs corresponding focus detection information and photometry information.

一方、ライブビューセンサ40が「長波長モード」に設定され、多層膜52からCIGS撮像センサ54への光路に赤外光カットフィルタ58に替えて可視光カットフィルタ60が光路に挿入された場合は、測光兼用AFセンサ34でも、これに対応したフィルタの差し替え等が行われる。具体的には、「長波長モード」の場合、半透ミラー66の退避を前提として赤外光カットフィルタ68が可視光カットフィルタ76に差し替えられる。これによって、CIGS撮像センサ54による長波長域での撮像のための焦点検出が、減光なしに、CIGSAFセンサ70によって行われるようになる。なお、このとき、波長感度域あわせだけでなく、波長の違いによる光路長の変化および焦点検出の際の色収差の違い等の補償を行う。 On the other hand, when the live view sensor 40 is set to the “long wavelength mode” and the visible light cut filter 60 is inserted in the optical path instead of the infrared light cut filter 58 in the optical path from the multilayer film 52 to the CIGS imaging sensor 54. The photometric AF sensor 34 also performs filter replacement corresponding to this. Specifically, in the “long wavelength mode”, the infrared light cut filter 68 is replaced with the visible light cut filter 76 on the premise that the semi-transmissive mirror 66 is retracted. Thereby, the focus detection for imaging in the long wavelength range by the CIGS imaging sensor 54 is performed by the CIGSAF sensor 70 without dimming. At this time, not only adjustment of the wavelength sensitivity range but also compensation for a change in optical path length due to a difference in wavelength and a difference in chromatic aberration during focus detection, etc.

以上のような可動半透ミラー66の移動および赤外光カットフィルタ68と可視光カットフィルタ76との差し替えは、操作部15によるモード切換操作に基づくカメラ制御部24の制御により、ミラー/フィルタ駆動部78が司る。 The movement of the movable semi-transmissive mirror 66 and the replacement of the infrared light cut filter 68 and the visible light cut filter 76 as described above are driven by the mirror / filter by the control of the camera control unit 24 based on the mode switching operation by the operation unit 15. Department 78 governs.

図1および図2の第1実施例は、上記のような基本機能に加え、「複合AF機能」が可能である。操作部15の操作により、「複合AF機能」が選択されると、ライブビュー機能が停止され、「複合AF機能」の開始が指示される。具体的には、操作部15の操作により、「複合AF機能」が選択されると、カメラ制御部24は、赤外光カットフィルタ58に替えて可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行うとともにCIGS撮像センサ54の出力に基づく表示部32でのライブビュー表示を停止する。 The first embodiment shown in FIGS. 1 and 2 can provide a “composite AF function” in addition to the basic functions as described above. When the “composite AF function” is selected by the operation of the operation unit 15, the live view function is stopped and the start of the “composite AF function” is instructed. Specifically, when the “composite AF function” is selected by operating the operation unit 15, the camera control unit 24 replaces the infrared light cut filter 58 with the visible light cut filter 60 to the CIGS imaging sensor 54. An instruction to set the optical path is given to the mirror / filter driving unit 62 and the live view display on the display unit 32 based on the output of the CIGS imaging sensor 54 is stopped.

これに替わり、可視光カットフィルタ60により長波長側の感度域となったCIGS撮像センサ54の画像信号は、赤外光カットフィルタ68により可視光の感度域にあるCIGSAFセンサの出力と組み合わされ、「複合AF機能」が実行される。具体的には、CIGS撮像センサ54の画像信号に基づく画像処理により被写体の画像分析が行われ、その結果に基づいて、CIGSAFセンサによる焦点検出領域が決定される。 Instead, the image signal of the CIGS imaging sensor 54 that has become a sensitivity region on the long wavelength side by the visible light cut filter 60 is combined with the output of the CIGSAF sensor in the visible light sensitivity region by the infrared light cut filter 68, The “composite AF function” is executed. Specifically, image analysis of the subject is performed by image processing based on the image signal of the CIGS imaging sensor 54, and a focus detection area by the CIGSAF sensor is determined based on the result.

図3は、図2のCIGS撮像センサ54およびCIGSAFセンサに用いられるCIGSセンサの分光感度(量子効率)をシリコンのCMOSセンサと比較したものである。図3(A)は、各波長におけるCIGSセンサの量子効率(%)を示すものであり、図3(B)におけるシリコンのCMOSセンサについての同様の量子効率(%)と比較して、明らかな高感度および広帯域の特性を示している。具体的には、図3(A)のCIGSセンサは、波長1300nm近くにわたる広い感度域を持つ。さらに、400nm付近から1200nm付近の広い波長域に渡り量子効率50%を超える分光感度を有しており、可視光およびこれに隣接する赤外光領域では特に顕著な高量子効率を示している。このような可視光域および赤外光域において60%以上の量子効率を有する高感度および広帯域の分光感度特性は、図3(B)におけるようなシリコンのCMOSセンサでは期待できないものである。 FIG. 3 compares the spectral sensitivity (quantum efficiency) of the CIGS sensor used in the CIGS imaging sensor 54 and the CIGSAF sensor of FIG. 2 with a silicon CMOS sensor. FIG. 3A shows the quantum efficiency (%) of the CIGS sensor at each wavelength, which is clear compared to the similar quantum efficiency (%) for the silicon CMOS sensor in FIG. 3B. It shows high sensitivity and broadband characteristics. Specifically, the CIGS sensor shown in FIG. 3A has a wide sensitivity range over a wavelength of about 1300 nm. Furthermore, it has a spectral sensitivity exceeding 50% quantum efficiency over a wide wavelength range from about 400 nm to about 1200 nm, and shows particularly remarkable high quantum efficiency in the visible light and the infrared light region adjacent thereto. Such a high-sensitivity and broadband spectral sensitivity characteristic having a quantum efficiency of 60% or more in the visible light region and the infrared light region cannot be expected with a silicon CMOS sensor as shown in FIG.

図4は、図1および図2の第1実施例におけるカメラ制御部24の動作のフローチャートである。操作部15によってカメラのメインスイッチがオンになるとフローがスタートし、ステップS2においてオートフォーカスデジタル一眼レフカメラが操作部15によって再生モードに設定されているかどうかチェックする。再生モード設定が検出されなければ撮影モードなのでステップS4に進み、可動半透ミラー66をCIGSAFセンサ70への光路内に設定して入射光量を減光する指示をミラー/フィルタ駆動部78に行う。 FIG. 4 is a flowchart of the operation of the camera control unit 24 in the first embodiment of FIGS. 1 and 2. When the main switch of the camera is turned on by the operation unit 15, the flow starts. In step S2, it is checked whether the autofocus digital single-lens reflex camera is set to the reproduction mode by the operation unit 15. If the reproduction mode setting is not detected, the mode is the shooting mode, and the process proceeds to step S4, where the movable semi-transparent mirror 66 is set in the optical path to the CIGSAF sensor 70 to instruct the mirror / filter driving unit 78 to reduce the amount of incident light.

なお、ステップS4の指示に応答するミラー/フィルタ駆動部78による可動半透ミラー66設定の機械的実行には遅延期間が設けられており、例えば可動半透ミラー66がCIGSAFセンサ70への光路にセットされている状態で可動半透ミラー66を光路から退避させる減光解除の指示が行われ、その後遅延時間内に、これを取り消す関係にある可動半透ミラー66を光路内にセットする指示が続いて行われたような場合には、ミラー/フィルタ駆動部78は実際には可動半透ミラー66の駆動を実行せず、可動半透ミラー66が光路内に設定されている状態が継続する。換言すれば、ミラー/フィルタ駆動部78は遅延時間内に可動半透ミラー66を異なる状態に駆動する指示が繰返し行われて初めて可動半透ミラー66の駆動を実行することになる。なお、既に可動半透ミラー66がCIGSAFセンサ70の光路に設定されている状態でステップS4の指示が行われた時は、当然ながら、ミラー/フィルタ駆動部78は可動半透ミラー66に対する何の駆動も行わない。これらのことは、以下の各ステップにおける種々の「指示」に共通である。 It should be noted that a delay period is provided in the mechanical execution of the setting of the movable semi-transmissive mirror 66 by the mirror / filter driving unit 78 in response to the instruction in step S4. For example, the movable semi-transmissive mirror 66 is provided in the optical path to the CIGSAF sensor 70. Instructed to cancel the dimming to retract the movable semi-transparent mirror 66 from the optical path in the set state, and then instructed to set the movable semi-transparent mirror 66 in the optical path within the delay time. In the case where it is performed subsequently, the mirror / filter driving unit 78 does not actually drive the movable semi-transmissive mirror 66, and the state where the movable semi-transmissive mirror 66 is set in the optical path continues. . In other words, the mirror / filter driving unit 78 executes the driving of the movable semi-transmissive mirror 66 only after the instruction to drive the movable semi-transmissive mirror 66 to a different state is repeatedly performed within the delay time. In addition, when the instruction in step S4 is performed in a state where the movable semi-transmissive mirror 66 is already set in the optical path of the CIGSAF sensor 70, the mirror / filter driving unit 78 naturally has no effect on the movable semi-transmissive mirror 66. Does not drive. These are common to various “instructions” in the following steps.

次いでステップS6に進み、ライブビュー用の赤外光フィルタ58をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に行う。なお、ミラー/フィルタ駆動部62のミラー差し替え動作についても、上記でミラー/フィルタ駆動部78において説明したのど同様の指示に対する駆動実行への遅延時間が設けられている。 Next, in step S6, the mirror / filter driving unit 62 is instructed to set the live view infrared light filter 58 in the optical path to the CIGS image sensor 54. Note that the mirror replacement operation of the mirror / filter drive unit 62 is also provided with a delay time for drive execution in response to the same instruction as described in the mirror / filter drive unit 78 above.

次いで、ステップS8でAF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に行う。そして、ステップS10に進み、CIGSAFセンサ70の出力に基づき、減光を解除すべきレベルまで被写体が暗いかどうかのチェックを行う。該当すればステップS12に進んで、可動半透ミラー66を光路から退避させる減光解除の指示を行ってステップS14に移行する。一方、被写体が充分明るい場合は直接ステップS14に移行する。 In step S8, the mirror / filter driving unit 78 is instructed to set the infrared cut filter 68 for AF in the optical path to the CIGSAF sensor 70. In step S10, based on the output of the CIGSAF sensor 70, it is checked whether or not the subject is dark enough to cancel the dimming. If applicable, the process proceeds to step S12, where an instruction to cancel the light reduction for retracting the movable semi-transmissive mirror 66 from the optical path is given, and the process proceeds to step S14. On the other hand, if the subject is sufficiently bright, the process proceeds directly to step S14.

ステップS14では、操作部15によって「複合AFモード」が選択されたかどうかのチェックを行う。そして選択があればステップS16に進み、複合AFを行うために赤外光フィルタ58に替えて可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行う。さらに、ステップS18でCIGS撮像センサ54の出力に基づく表示部32でのライブビュー表示を停止するとともに、長波長側の感度域のCIGS撮像センサ54の画像信号と可視光の感度域にあるCIGSAFセンサの出力とを組み合わせる「複合AF機能」の開始が指示してステップS20に移行する。一方、ステップS14で「AFモード」の選択が検出されない場合は、直接ステップS20に移行する。 In step S14, it is checked whether or not the “composite AF mode” has been selected by the operation unit 15. If there is a selection, the process proceeds to step S16, and an instruction to set the visible light cut filter 60 in the optical path to the CIGS imaging sensor 54 in place of the infrared light filter 58 in order to perform the composite AF is given to the mirror / filter drive unit 62. Do it. Further, in step S18, the live view display on the display unit 32 based on the output of the CIGS imaging sensor 54 is stopped, and the CIGSAF sensor in the sensitivity range of the visible light and the image signal of the CIGS imaging sensor 54 in the sensitivity region on the long wavelength side is stopped. The start of the “composite AF function” to be combined with the output is instructed, and the process proceeds to step S20. On the other hand, if the selection of “AF mode” is not detected in step S14, the process directly proceeds to step S20.

ステップS20では、撮像部20による撮像が光量不足となるほど暗いかどうかのチェックを行う。通常、このレベルまで被写体が暗くなるとフラッシュなどの補助光を用いた撮影が必要となる。ステップS20で光量不足が検知されるとステップS22に進み、操作部15の操作によって「長波長モード」が選択されているかどうかチェックする。そして該当すればステップS24に進み、赤外光フィルタ58に替えてライブビュー用の可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行う。さらに、ステップS26で、赤外光カットフィルタ68に替えてAF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行ってステップS28に移行する。 In step S <b> 20, it is checked whether the image picked up by the image pickup unit 20 is so dark that the light quantity becomes insufficient. Usually, when the subject becomes dark to this level, photographing using auxiliary light such as a flash is required. When the light quantity shortage is detected in step S20, the process proceeds to step S22, and it is checked whether or not the “long wavelength mode” is selected by the operation of the operation unit 15. Then, if applicable, the process proceeds to step S 24, and an instruction to set the live view visible light cut filter 60 in the optical path to the CIGS imaging sensor 54 instead of the infrared light filter 58 is given to the mirror / filter drive unit 62. Further, in step S26, the mirror / filter drive unit 78 is instructed to set the visible light cut filter 76 for AF in the optical path to the CIGSAF sensor 70 instead of the infrared light cut filter 68, and the process proceeds to step S28. To do.

一方、ステップS20で撮像部の光量不足が検出されない場合は、直接ステップS28に移行する。このように、撮像部の光量不足となるような暗さでない場合、通常はステップS22に進むことができず、「長波長モード」は禁止される。これは設定の混乱を防止するためである。なお、被写体が明るい場合でも特に「長波長モード」を選択したい場合は、操作部15で特別の操作を行うことによってステップS22に進むことも可能である。また、ステップS22で「長波長モード」設定が検出されない場合も、直接ステップS28に移行する。 On the other hand, if it is not detected in step S20 that the light intensity of the imaging unit is insufficient, the process directly proceeds to step S28. As described above, when the image is not dark enough to cause the light amount of the image capturing unit to be insufficient, the process cannot normally proceed to step S22, and the “long wavelength mode” is prohibited. This is to prevent confusion of settings. Even when the subject is bright, it is possible to proceed to step S22 by performing a special operation with the operation unit 15 in particular when it is desired to select the “long wavelength mode”. Further, when the “long wavelength mode” setting is not detected in step S22, the process directly proceeds to step S28.

ステップS28では、操作部15のシャッタレリーズボタンによるレリーズ操作が行われたかどうかチェックする。レリーズ操作が検知できなければステップS30に進み、操作部15によってカメラのメインスイッチをオフする操作が行われたかどうかチェックする。そしてカメラオフ操作が検出されなければフローはステップS2に戻り、以下、ステップS2で再生モード操作が検出されるかステップS28でレリーズ操作が検出されない限り、ステップS2からステップS30を繰り返す。 In step S28, it is checked whether or not a release operation using the shutter release button of the operation unit 15 has been performed. If the release operation cannot be detected, the process proceeds to step S30, and it is checked whether an operation to turn off the main switch of the camera is performed by the operation unit 15. If no camera-off operation is detected, the flow returns to step S2, and thereafter, step S2 to step S30 are repeated unless a playback mode operation is detected in step S2 or a release operation is not detected in step S28.

上記の繰返しは充分高速で行われ、上記したミラー/フィルタ駆動部62、78に設けられる遅延時間内に何度も繰り返される。従って、ステップS10、ステップS14、ステップS20およびステップS22に基づく検知結果が変化するとミラー/フィルタ駆動部62、78の遅延時間内にこの変化基づく同一の指示が繰返し行われ、ミラー/フィルタ駆動部62、78による適切な指示の実行が行われる。これによって、被写体の明るさの変化に基づく減光の設定/解除と波長域カットフィルタの切り替え、およびモード切り替えに基づく波長域カットフィルタの切り替えがスムーズに実行される。 The above repetition is performed at a sufficiently high speed and is repeated many times within the delay time provided in the mirror / filter driving units 62 and 78 described above. Accordingly, when the detection result based on step S10, step S14, step S20 and step S22 changes, the same instruction based on this change is repeatedly performed within the delay time of the mirror / filter driving units 62 and 78, and the mirror / filter driving unit 62 78, an appropriate instruction is executed. Accordingly, the setting / cancellation of the light reduction based on the change in the brightness of the subject, the switching of the wavelength band cut filter, and the switching of the wavelength band cut filter based on the mode switching are executed smoothly.

なお、ステップS2で操作部15による再生モード設定操作が検出された時はステップS32の再生モード処理に移行する。そして、再生モード処理内部の機能によって撮影モードが選択されたときには、フローはステップS4に戻る。また、再生モード処理内部の機能によってカメラオフ操作が検出されたときにはフローを終了する。 When a playback mode setting operation by the operation unit 15 is detected in step S2, the process proceeds to the playback mode process in step S32. When the shooting mode is selected by the function in the playback mode process, the flow returns to step S4. Also, when a camera-off operation is detected by a function within the playback mode process, the flow ends.

一方、ステップS28で操作部15のシャッタレリーズボタンによるレリーズ定操作が検出された時はステップS34の撮像記録処理に移行する。そして、撮像記録および表示部での撮像結果表示が終わると、フローは自動的にステップS2に戻る。なお、ステップS30でカメラオフ操作が検出されたときは、図4のフローが終了となる。 On the other hand, when the release fixed operation by the shutter release button of the operation unit 15 is detected in step S28, the process proceeds to the imaging recording process in step S34. When the imaging record and the imaging result display on the display unit are finished, the flow automatically returns to step S2. Note that when the camera-off operation is detected in step S30, the flow of FIG. 4 ends.

図5は、本発明の実施の形態に係るオートフォーカスデジタル一眼レフカメラの第2実施例を示すブロック図である。その構成の大部分は図1の第1実施例と同様なので、共通する部分には同一の番号を付し、特に必要がない限り説明を省略する。図5の第2実施例が図1の第1実施例と異なるのは、カメラボディ100であり、特にそのライブビューセンサ102およびこれに関連する構成および機能が第1実施例と異なる。 FIG. 5 is a block diagram showing a second example of the autofocus digital single-lens reflex camera according to the embodiment of the present invention. Since most of the configuration is the same as that of the first embodiment of FIG. 1, the same reference numerals are given to common portions, and the description is omitted unless particularly required. The second embodiment shown in FIG. 5 differs from the first embodiment shown in FIG. 1 in the camera body 100. In particular, the live view sensor 102 and the configuration and functions related thereto are different from those in the first embodiment.

第1実施例のライブビューセンサ40では、半透過性の反射面12aを介して光を受けるよう構成され、反射面12aを透過する可視光領域の光が抑えられている。これは、アイピース14で光学的に被写体像を支障なく観察することができるようにするとともに、同時にライブビューも常に可能とするためである。ライブビューセンサ40にはCIGS撮像センサが用いられているので、反射面12aを透過する可視光領域の光が抑えられていても、通常の明るさの被写体をライブビューするには充分である。しかしながら、アイピース14で充分観察できないような暗い被写体の場合は、ライブビューセンサ40でも光量が不足する。これに対し、図5の第2実施例は、アイピース14で充分観察できないような暗い被写体の場合でも、ライブビューセンサ102に採用したcIGS撮像センサによってライブビューが可能となるよう構成している。なお、図5のライブビューセンサ102の詳細構造は、図2におけるライブビューセンサ40と基本的には同様であって、再結像光学系およびCIGS撮像センサを有する。但し、ペンタプリズム104に対するライブビューセンサ102の配置場所が異なるので、その再結像光学系は図2の再結像レンズ56とは異なったものとなる。 The live view sensor 40 according to the first embodiment is configured to receive light through the semi-transmissive reflective surface 12a, and suppresses light in the visible light region that is transmitted through the reflective surface 12a. This is because the object image can be optically observed with the eyepiece 14 without hindrance, and at the same time, a live view is always possible. Since the CIGS imaging sensor is used for the live view sensor 40, even if the light in the visible light region that is transmitted through the reflecting surface 12a is suppressed, it is sufficient for live view of a subject with normal brightness. However, in the case of a dark subject that cannot be sufficiently observed with the eyepiece 14, the live view sensor 40 has insufficient light quantity. On the other hand, the second embodiment of FIG. 5 is configured so that the live view can be performed by the cIGS imaging sensor employed in the live view sensor 102 even in the case of a dark subject that cannot be sufficiently observed by the eyepiece 14. The detailed structure of the live view sensor 102 in FIG. 5 is basically the same as the live view sensor 40 in FIG. 2, and includes a re-imaging optical system and a CIGS imaging sensor. However, since the arrangement position of the live view sensor 102 with respect to the pentaprism 104 is different, the re-imaging optical system is different from the re-imaging lens 56 of FIG.

上記の考え方に基づき、第2実施例では、通常のペンタプリズム104が採用されており、ライブビューモードに設定しない場合は、ペンタプリズム104からの光はすべてアイピースに向かう。このとき可動全反射ミラー106は図5のようにアイピース14への光路から退避している。従ってこの状態ではライブビューができない。 Based on the above concept, in the second embodiment, the normal pentaprism 104 is employed, and when the live view mode is not set, all the light from the pentaprism 104 goes to the eyepiece. At this time, the movable total reflection mirror 106 is retracted from the optical path to the eyepiece 14 as shown in FIG. Therefore, live view is not possible in this state.

操作部15の操作によってライブピューモードを選択すると、可動全反射ミラーが106aの位置に下がり、ペンタプリズム104からの光を全てライブビューセンサ102の方向に反射する。従って、アイピース14による光学的なファインダー像の観察はできなくなる。可動減光フィルタ108は、被写体が通常の明るさのときに図5のようにライブビューセンサへの光路中に挿入され、ライブピューセンサ102への入射光量をCIGS撮像センサの感度ダイナミックレンジに合わせこむ。一方、被写体がアイピースでは観察し難い程度の暗さになったときには可動減光フィルタ108がライブビューセンサ102への光路から退避し、減光なしに被写体像をライブビューセンサに導く。なお、このとき可動減光フィルタ108の有無による光路長の補償が必要であり、例えば、可動減光フィルタを退避させたときには、これと光路長が等しい全透過性の並行平板を代わりに光路中に挿入する。このようにして、光学的には観察し難い暗い被写体の場合でも、図5の第2実施例の場合にはCIGS撮像センサによりライブビューが可能となる。このライブビューセンサ102からの可視光域の画像は表示部32でのライブビューだけでなく、画像記憶部26に記録することも可能である。したりすることが可能となる。 When the live pure mode is selected by operating the operation unit 15, the movable total reflection mirror is lowered to a position 106 a and all the light from the pentaprism 104 is reflected in the direction of the live view sensor 102. Therefore, the optical viewfinder image cannot be observed by the eyepiece 14. The movable neutral density filter 108 is inserted in the optical path to the live view sensor as shown in FIG. 5 when the subject has normal brightness, and matches the amount of light incident on the live pure sensor 102 to the sensitivity dynamic range of the CIGS imaging sensor. Come on. On the other hand, when the subject becomes so dark that it is difficult to observe with the eyepiece, the movable neutral density filter 108 retracts from the optical path to the live view sensor 102 and guides the subject image to the live view sensor without dimming. At this time, it is necessary to compensate the optical path length depending on the presence / absence of the movable neutral density filter 108. For example, when the movable neutral density filter is retracted, a parallel plate having the same optical path length as that of the movable neutral density filter is used instead. Insert into. In this way, even in the case of a dark subject that is difficult to observe optically, in the case of the second embodiment of FIG. 5, a live view is possible by the CIGS imaging sensor. The image in the visible light range from the live view sensor 102 can be recorded not only in the live view on the display unit 32 but also in the image storage unit 26. It becomes possible to do.

赤外光カットフィルタ110は、ライブビューモードにおいて可動全反射ミラー106aから反射される可視光領域以外の光をカットし、CIGS撮像センサの波長感度特性を撮像部20の波長感度特性に近似させるものであり、視感度に一致した被写体像を撮像してカメラ制御部116に送り、自然なライブビューを可能にする。 The infrared light cut filter 110 cuts light outside the visible light region reflected from the movable total reflection mirror 106a in the live view mode, and approximates the wavelength sensitivity characteristic of the CIGS imaging sensor to the wavelength sensitivity characteristic of the imaging unit 20. A subject image that matches the visibility is captured and sent to the camera control unit 116 to enable a natural live view.

可視光カットフィルタ112は、赤外光カットフィルタ110と差し替えてライブビューセンサ102への光路中に挿入されるもので、「長波長モード」にて使用されるものである。可動全反射ミラー106aからは可視光領域以外もほぼ全面的に反射されてくるので、長波長モードの設定で赤外光カットフィルタ110に替えて可視光カットフィルタ112がライブビューセンサ102への光路に挿入された場合は、可視光よりも長波長側域の光がライブビューセンサ102のCIGS撮像センサに入射するようになる。従って、第1実施例と同様、長波長域の画像についてその画像出力を表示部32でリアルタイムに観察したり、画像記憶部26に記録したりすることが可能となる。なお、可視光カットフィルタ112を用いる長波長モードにおいては、可動減光フィルタ108をライブビューセンサへの光路から退避させる。以上のような可動全反射ミラーが106、可動減光フィルタ108、赤外光カットフィルタ110および可視光カットフィルタ112の駆動は、カメラ制御部116によって制御されるミラー/フィルタ駆動部114によって行われる。 The visible light cut filter 112 is inserted in the optical path to the live view sensor 102 in place of the infrared light cut filter 110 and is used in the “long wavelength mode”. Since the movable total reflection mirror 106a reflects almost the entire area other than the visible light region, the visible light cut filter 112 replaces the infrared light cut filter 110 in the long wavelength mode setting, and the optical path to the live view sensor 102 is changed. Is inserted into the CIGS imaging sensor of the live view sensor 102, light having a wavelength longer than visible light is incident on the CIGS imaging sensor. Accordingly, as in the first embodiment, the image output of the image in the long wavelength region can be observed in real time on the display unit 32 or recorded in the image storage unit 26. In the long wavelength mode using the visible light cut filter 112, the movable neutral density filter 108 is retracted from the optical path to the live view sensor. The movable total reflection mirror 106, the movable neutral density filter 108, the infrared light cut filter 110, and the visible light cut filter 112 are driven by the mirror / filter drive unit 114 controlled by the camera control unit 116. .

図6は、図5の第2実施例におけるカメラ制御部116の動作のフローチャートである。第1実施例と同様にして操作部15によってカメラのメインスイッチがオンになるとフローがスタートし、ステップS42においてオートフォーカスデジタル一眼レフカメラが操作部15によって再生モードに設定されているかどうかチェックする。再生モード設定が検出されなければ撮影モードなのでステップS44に進み、光学ファインダ光路に設定する指示を行う。具体的には、可動全反射ミラー106がアイピース14への光路中から退避するようミラー/フィルタ駆動部114に指示する。ステップS44ではさらに、可動減光フィルタ108をライブビューセンサ102への光路中に挿入して入射光量を減光する指示をミラー/フィルタ駆動部114に行とともに、図2における可動半透ミラー66をCIGSAFセンサ70への光路内に設定して入射光量を減光する指示をミラー/フィルタ駆動部78に行う。 FIG. 6 is a flowchart of the operation of the camera control unit 116 in the second embodiment of FIG. As in the first embodiment, when the main switch of the camera is turned on by the operation unit 15, the flow starts. In step S42, it is checked whether or not the autofocus digital single-lens reflex camera is set to the reproduction mode by the operation unit 15. If the reproduction mode setting is not detected, the shooting mode is set, and the process proceeds to step S44 to instruct to set the optical viewfinder optical path. Specifically, the mirror / filter driving unit 114 is instructed so that the movable total reflection mirror 106 is retracted from the optical path to the eyepiece 14. In step S44, an instruction to reduce the amount of incident light by inserting the movable neutral density filter 108 into the optical path to the live view sensor 102 is sent to the mirror / filter driving unit 114, and the movable semi-transmissive mirror 66 in FIG. The mirror / filter driving unit 78 is instructed to reduce the amount of incident light by setting in the optical path to the CIGSAF sensor 70.

次いでステップS46に進み、操作部15によって「ライブピューモード」が設定されているかどうかチェックする。該当すればステップS48に進み、ライブビューへの光路切り替えの指示が行われる。具体的には、可動全反射ミラー106をアイピース14への光路中に進出させるようミラー/フィルタ駆動部114に指示してステップS50に移行する。この指示が実行されると、ファインダ像をアイピース14から光学的に観察することはできなくなり、代わりにライブビューセンサ102の出力に基づく表示部32でのライブビューが可能となる。ステップS48ではさらに、ライブビュー用の赤外光カットフィルタ110をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に行う。なお、ミラー/フィルタ駆動部114についても、第1実施例で説明したのと同様の、指示に対する駆動実行への遅延時間が設けられている。一方、ステップS46で「ライブビューモード」への設定が検知されない場合は、直接ステップS50に移行する。 In step S46, it is checked whether the “live pew mode” is set by the operation unit 15. If applicable, the process proceeds to step S48, and an instruction to switch the optical path to the live view is issued. Specifically, the mirror / filter driving unit 114 is instructed to advance the movable total reflection mirror 106 in the optical path to the eyepiece 14, and the process proceeds to step S50. When this instruction is executed, the finder image cannot be optically observed from the eyepiece 14, and a live view on the display unit 32 based on the output of the live view sensor 102 is enabled instead. In step S48, the mirror / filter driving unit 114 is further instructed to set the infrared light cut filter 110 for live view in the optical path to the live view sensor 102. Note that the mirror / filter driving unit 114 is also provided with a delay time for executing the driving in response to the instruction as described in the first embodiment. On the other hand, when the setting to “live view mode” is not detected in step S46, the process directly proceeds to step S50.

ステップS50では、AF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に行う。そして、ステップS52に進み、CIGSAFセンサ70の出力に基づき、減光を解除すべきレベルまで被写体が暗いかどうかのチェックを行う。該当すればステップS54に進み、操作部15によって「ライブピューモード」が設定されているかどうかチェックする。該当すればステップS56に進み、可動減光フィルタ108をライブビューセンサ102への光路から退避させる減光解除の指示を行ってステップS58に移行する。一方、ステップS54で「ライブビューモード」の設定が検知されなければ直接ステップS58に移行する。そして、ステップS58では、可動半透ミラー66をCIGSAFセンサ70への光路から退避させてAF用の減光を解除する指示を行う。このように、ステップS52で被写体が暗いことが検知された場合は、「ライブビューモード」の設定如何にかかわらずAF用の減光を解除する。 In step S50, the mirror / filter driving unit 78 is instructed to set the infrared cut filter 68 for AF in the optical path to the CIGSAF sensor 70. In step S52, based on the output of the CIGSAF sensor 70, it is checked whether or not the subject is dark enough to cancel the dimming. If applicable, the process proceeds to step S54, and it is checked whether the “live pew mode” is set by the operation unit 15. If applicable, the process proceeds to step S56, where an instruction to cancel the dimming is performed to retract the movable neutral density filter 108 from the optical path to the live view sensor 102, and the process proceeds to step S58. On the other hand, if the setting of “live view mode” is not detected in step S54, the process directly proceeds to step S58. In step S58, the movable semi-transparent mirror 66 is retracted from the optical path to the CIGSAF sensor 70 to instruct to cancel the AF dimming. Thus, if it is detected in step S52 that the subject is dark, the AF dimming is canceled regardless of the “live view mode” setting.

次いで、ステップS60では、撮像部20による撮像が光量不足となるほど暗いかどうかのチェックを行う。そして該当すればステップS62に進み、操作部15の操作によって長波長モードが選択されているかどうかチェックする。そして該当すればステップS64に進み、赤外光フィルタ110に替えてライブビュー用の可視光カットフィルタ112をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行う。さらに、ステップS66で、赤外光カットフィルタ68に替えてAF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。 Next, in step S60, it is checked whether the image picked up by the image pickup unit 20 is so dark that the light quantity becomes insufficient. If applicable, the process proceeds to step S62, and it is checked whether or not the long wavelength mode is selected by operating the operation unit 15. Then, if applicable, the process proceeds to step S 64, and an instruction to set the live view visible light cut filter 112 in the optical path to the live view sensor 102 instead of the infrared light filter 110 is given to the mirror / filter driving unit 114. In step S 66, the mirror / filter driving unit 78 is instructed to set the visible light cut filter 76 for AF in the optical path to the CIGSAF sensor 70 instead of the infrared light cut filter 68.

以上のステップを経て、フローはステップS68に進む。一方、ステップS52で減光を解除すべきレベルまで被写体が暗いことが検知されなかった場合、ステップS60で撮像部20による撮像が光量不足となるほど被写体が暗いことが検知されなかった場合、およびステップS62で長波長モードへの選択が検知されなかった場合は、いずれも直接ステップS68に移行する。 Through the above steps, the flow proceeds to step S68. On the other hand, if it is not detected in step S52 that the subject is dark enough to cancel the dimming, if it is not detected in step S60 that the subject is dark enough that the imaging by the imaging unit 20 is insufficient, and step If no selection for the long wavelength mode is detected in S62, the process directly proceeds to step S68.

ステップS68では、操作部15のシャッタレリーズボタンによるレリーズ操作が行われたかどうかチェックする。レリーズ操作が検知できなければステップS70に進み、操作部15によってカメラのメインスイッチをオフする操作が行われたかどうかチェックする。そしてカメラオフ操作が検出されなければフローはステップS42に戻り、以下、ステップS42で再生モード操作が検出されるかステップS68でレリーズ操作が検出されない限り、ステップS42からステップS70を繰り返す。 In step S68, it is checked whether or not a release operation using the shutter release button of the operation unit 15 has been performed. If the release operation cannot be detected, the process proceeds to step S70 to check whether the operation unit 15 has performed an operation to turn off the main switch of the camera. If no camera-off operation is detected, the flow returns to step S42, and thereafter, step S42 to step S70 are repeated unless a playback mode operation is detected in step S42 or a release operation is not detected in step S68.

第1実施例と同様にして、上記の繰返しは充分高速で行われ、上記したミラー/フィルタ駆動部78、114に設けられる遅延時間内に何度も繰り返される。従って、ステップS46、ステップS52、ステップS54、ステップS60およびステップS62に基づく検知結果が変化するとミラー/フィルタ駆動部78、114の遅延時間内にこの変化基づく同一の指示が繰返し行われ、ミラー/フィルタ駆動部78、114による適切な指示の実行が行われる。これによって、被写体の明るさの変化に基づく減光の設定/解除と波長域カットフィルタの切り替え、およびモード切り替えに基づく波長域カットフィルタの切り替えがスムーズに実行される。 Similar to the first embodiment, the above repetition is performed at a sufficiently high speed, and is repeated many times within the delay time provided in the mirror / filter driving units 78 and 114 described above. Accordingly, when the detection result based on step S46, step S52, step S54, step S60 and step S62 changes, the same instruction based on this change is repeatedly performed within the delay time of the mirror / filter drive units 78 and 114, and the mirror / filter Appropriate instructions are executed by the drive units 78 and 114. Accordingly, the setting / cancellation of the light reduction based on the change in the brightness of the subject, the switching of the wavelength band cut filter, and the switching of the wavelength band cut filter based on the mode switching are executed smoothly.

なお、第1実施例と同様にして、ステップS42で操作部15による再生モード設定操作が検出された時はステップS72の再生モード処理に移行する。そして、再生モード処理内部の機能によって撮影モードが選択されたときには、フローはステップS44に戻る。また、再生モード処理内部の機能によってカメラオフ操作が検出されたときにはフローを終了する。 As in the first embodiment, when a reproduction mode setting operation by the operation unit 15 is detected in step S42, the process proceeds to a reproduction mode process in step S72. When the shooting mode is selected by the function within the playback mode process, the flow returns to step S44. Also, when a camera-off operation is detected by a function within the playback mode process, the flow ends.

また、ステップS68で操作部15のシャッタレリーズボタンによるレリーズ定操作が検出された時はステップS74の撮像記録処理に移行する。そして、撮像記録および表示部での撮像結果表示が終わると、フローは自動的にステップS42に戻る。なお、ステップS70でカメラオフ操作が検出されたとき、図6のフローは終了となる。 Further, when the release fixed operation by the shutter release button of the operation unit 15 is detected in step S68, the process proceeds to the imaging recording process in step S74. When the imaging record and the imaging result display on the display unit are finished, the flow automatically returns to step S42. Note that when the camera-off operation is detected in step S70, the flow of FIG. 6 ends.

上記における本発明の種々の特徴は、実施例に限らず、広く活用できるものである。例えば、第1実施例においては、可視光カットフィルタ60により長波長域に感度を有するCIGS撮像センサ54と赤外光カットフィルタ68により可視光に感度域を有するCIGSAFセンサの出力とを組合せて「複合AF機能」は実施するものとして説明した。しかしながら、「複合AF機能」の実施はこのようなものに限るものではない。例えば、図2における波長選択性のない可動半透ミラー66をダイクロイックミラーで構成し、可視光透過させてCIGSAFセンサ70上に導くとともに、長波長域を反射させてAF対応部分測光センサ72に導くようにする。そして、AF対応部分測光センサ72にも、CIGSセンサを用いるようにする。なお、この場合、赤外光カットフィルタ68は不要となる。 The various features of the present invention described above are not limited to the embodiments and can be widely used. For example, in the first embodiment, the visible light cut filter 60 combines the CIGS imaging sensor 54 having sensitivity in the long wavelength region and the infrared light cut filter 68 with the output of the CIGSAF sensor having sensitivity to visible light. The “composite AF function” has been described as being implemented. However, the implementation of the “composite AF function” is not limited to this. For example, the movable semi-transparent mirror 66 having no wavelength selectivity in FIG. 2 is formed of a dichroic mirror, transmits visible light and guides it onto the CIGSAF sensor 70, and reflects the long wavelength region to guide to the AF-compatible partial photometric sensor 72. Like that. A CIGS sensor is also used for the AF-compatible partial photometric sensor 72. In this case, the infrared light cut filter 68 is not necessary.

以上のように構成すれば、長波長域に感度を有するAF対応部分測光センサ72によりAF対応部分のうちのどこに人物が存在するかの推定が可能となり、その部分に対してCIGSAFセンサ70による焦点検出を行うことが可能となる。 If comprised as mentioned above, it becomes possible to estimate where a person exists in the AF corresponding part by the AF corresponding partial photometric sensor 72 having sensitivity in the long wavelength region, and the focus by the CIGSAF sensor 70 is applied to that part. Detection can be performed.

さらに「複合AF機能」の実施は以上のように二つのCIGSセンサを用いるものに限るものではない。例えば図2において、可視光カットフィルタ76がCIGSAFセンサの光路中に挿入された状態においてCIGSAFセンサ自体でAF対応部分のうちのどこに人物が存在するかの推定を行うとともに、赤外光カットフィルタ18が光路中に挿入された状態においてその部分に対してCIGSAFセンサ70による焦点検出を行うことも可能である。このように広い感度領域を有する一つのCIGSを時分割で異なる感度領域にて使い分け、それらの出力を組合せることによって「複合AF機能」を実現することも可能である。 Furthermore, the implementation of the “composite AF function” is not limited to the one using two CIGS sensors as described above. For example, in FIG. 2, in the state where the visible light cut filter 76 is inserted in the optical path of the CIGSAF sensor, the CIGSAF sensor itself estimates where a person exists in the AF-corresponding portion, and the infrared light cut filter 18. It is also possible to perform focus detection by the CIGSAF sensor 70 on the portion in a state where the is inserted in the optical path. It is also possible to realize the “composite AF function” by using one CIGS having a wide sensitivity region in different sensitivity regions in a time division manner and combining their outputs.

また、以上の実施例では、減光のために可動半透ミラーまたはフィルタを光路中に出し入れするものとして説明したが、入射光量の調節はこのような二段階のものに限るものではない。例えば、透過率が段階的に異なる複数の減光フィルタを用意し、これらの一つを光路に挿入することにより、減光の度合いをきめ細かく段階的に変化させるよう構成してもよい、また、透過率が連続的に変化する減光手段を用い、減光の度合いを連続的に変化させるよう構成してもよい。 In the above embodiment, the description has been made on the assumption that the movable semi-transmissive mirror or the filter is put in and out of the optical path for dimming. For example, a plurality of neutral density filters with different transmittances may be prepared, and one of these may be inserted into the optical path to change the degree of attenuation finely in a stepwise manner. You may comprise so that the degree of light attenuation may be changed continuously using the light reduction means from which the transmittance | permeability changes continuously.

上記の実施例においては、可視光域および赤外光域において60%以上の量子効率を有する高感度および広帯域の分光感度特性をもつセンサとしてCIGSセンサを用いている。CIGSセンサは銅、インジウム、ガリウムおよびセレンよりなる多結晶のCIGS系薄膜を用いた光電センサであるが、その組成制御によりバンドギャップを変化させることで吸収波長域を制御することができる。このうちガリウムの含有率をゼロとしたものは「CIS系薄膜」とも称されるが、本明細書で「CIGSセンサ」という場合は、このようなガリウムを含まない「CIS系薄膜」を用いた光電センサをも意味するものとする。 In the above embodiment, the CIGS sensor is used as a sensor having a high sensitivity and a broadband spectral sensitivity characteristic having a quantum efficiency of 60% or more in the visible light region and the infrared light region. The CIGS sensor is a photoelectric sensor using a polycrystalline CIGS thin film made of copper, indium, gallium, and selenium, and the absorption wavelength region can be controlled by changing the band gap by controlling the composition thereof. Among them, the gallium content of zero is also referred to as “CIS thin film”, but in this specification “CIGS sensor” refers to such a “CIS thin film” that does not contain gallium. It shall also mean a photoelectric sensor.

図7は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのカラーフィルタ配列の第1例である。この第1例においては、赤外光透過フィルタR11、青透過フィルタB12、緑透過フィルタG22および赤透過フィルタR21が図示のように配列され、これを一つの単位として繰り返す配列となっている。本発明のCIGS撮像センサは、図3のように可視光域から赤外光にわたる広い分光感度域をもつため、このように一つのセンサに可視光および赤外光のカラーフィルタを設けることができる。なお、図7の配列は、原色カラーフィルタに赤外光透過フィルタを加えたものであり、原色カラーフィルタにおいて代表的なベイヤー配列と異なり緑の受光面積が青および青と同じになっているが、この点については後の回路処理で補正することができる。 FIG. 7 is a first example of the color filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In this first example, an infrared light transmission filter R11, a blue transmission filter B12, a green transmission filter G22, and a red transmission filter R21 are arranged as shown in the figure, and this is repeated as a unit. Since the CIGS imaging sensor of the present invention has a wide spectral sensitivity range from the visible light range to the infrared light as shown in FIG. 3, the color filter for visible light and infrared light can be provided in one sensor in this way. . The arrangement in FIG. 7 is obtained by adding an infrared light transmission filter to the primary color filter. Unlike the typical Bayer arrangement in the primary color filter, the green light receiving area is the same as that of blue and blue. This point can be corrected by later circuit processing.

ここで、赤外光透過フィルタが配置されていない画素に関する赤外光画像の補間について説明する。まず、青透過フィルタB12に対応する画素については、基本的にはその両側にある赤外光透過フィルタIR11に対応する画素のデータと赤外光透過フィルタIR13に対応する画素のデータの平均値によって補間が行われる。他の青透過フィルに対応する画素における赤外光画像の補間も同様である。一方、赤透過フィルタR21に対応する画素については、同様にその上下にある赤外光透過フィルタIR11に対応する画素のデータと赤外光透過フィルタIR31に対応する画素のデータの平均値によって補間される。他の赤透過フィルタに対応する画素における赤外光画像の補間も同様である。また、緑透過フィルタG22に対応する画素については、その周囲にある赤外光透過フィルタIR11に対応する画素のデータ、赤外光透過フィルタIR13に対応する画素のデータ、赤外光透過フィルタIR33に対応する画素のデータおよび赤外光透過フィルタIR31に対応する画素のデータの平均値によって補間される。他の緑透過フィルタに対応する画素における赤外光画像の補間も同様である。 Here, the interpolation of the infrared light image regarding the pixel in which the infrared light transmission filter is not disposed will be described. First, for the pixel corresponding to the blue transmission filter B12, basically, the average value of the pixel data corresponding to the infrared light transmission filter IR11 and the pixel data corresponding to the infrared light transmission filter IR13 on both sides thereof is determined. Interpolation is performed. The same applies to the interpolation of the infrared light image in the pixels corresponding to the other blue transmission fills. On the other hand, the pixel corresponding to the red transmission filter R21 is similarly interpolated by the average value of the pixel data corresponding to the infrared light transmission filter IR11 above and below the pixel data corresponding to the infrared light transmission filter IR31. The The same applies to the interpolation of the infrared light image in the pixels corresponding to the other red transmission filters. For the pixel corresponding to the green transmission filter G22, the pixel data corresponding to the infrared light transmission filter IR11, the pixel data corresponding to the infrared light transmission filter IR13, and the infrared light transmission filter IR33 around it. Interpolation is performed based on the average value of the corresponding pixel data and the pixel data corresponding to the infrared light transmission filter IR31. The same applies to the interpolation of the infrared light image in the pixels corresponding to the other green transmission filters.

なお、上記のような単純な補間では、実際の被写体とは異なる赤外光画像が得られる可能性がある。これを防止するには、単に近傍の赤外光透過フィルタに対応するデータのみに基づいて赤外光画像の補間を行うのではなく、補間しようとしている画素に影響している可視光のデータも加味して補間を行うのが有効である。例えば、赤透過フィルタR21に対応する画素の赤外光画像の補間において、赤透過フィルタR21に対応する画素が実際に受けている赤色光のデータも加味する。このような可視光データの加味の有無および加味する場合の度合いについては、可視光データと赤外光データとの相互関係または周囲の画素の他の可視光データとの相互関係に基づいて決定する。 Note that with simple interpolation as described above, an infrared light image different from the actual subject may be obtained. To prevent this, instead of simply interpolating an infrared light image based only on the data corresponding to the nearby infrared light transmission filter, the visible light data affecting the pixel being interpolated is also included. It is effective to perform interpolation with consideration. For example, in the interpolation of the infrared light image of the pixel corresponding to the red transmission filter R21, the red light data actually received by the pixel corresponding to the red transmission filter R21 is also taken into consideration. The presence or absence of such visible light data and the degree of addition are determined based on the correlation between visible light data and infrared light data or the correlation between other visible light data of surrounding pixels. .

図8は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのフィルタ配列の第2例である。この第2例にでは、カラーフィルタ配列自体は図7の第1例と共通であるが、各カラーフィルタの受光面積が異なっている。つまり、赤外光透過フィルタIR11および緑透過フィルタG22については、画素に許される最大の受光面積を確保しているが、青透過フィルタB12は遮光部202を設けることにより、受光面積が緑透過フィルタG22の約半分になっている。同様に赤透過フィルタR21についても、遮光部204を設けることにより、受光面積が緑透過フィルタG22の約半分になっている。これは、人間の目の赤および青に対する視感度が緑に対する視感度の約半分であることに対応している。 FIG. 8 is a second example of the filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In the second example, the color filter array itself is common to the first example of FIG. 7, but the light receiving area of each color filter is different. In other words, the infrared light transmission filter IR11 and the green transmission filter G22 secure the maximum light receiving area allowed for the pixel, but the blue transmission filter B12 is provided with the light shielding portion 202 so that the light reception area is the green transmission filter. It is about half of G22. Similarly, with respect to the red transmission filter R21, the light receiving area is about half that of the green transmission filter G22 by providing the light shielding portion 204. This corresponds to the visibility of human eyes with respect to red and blue being about half that of green.

本発明のCIGS撮像センサは、図3のように可視光域において高感度を有するため、上記のように青透過フィルタB12と赤透過フィルタR21の受光面積を減らしても充分対応できる。また、遮光部によって画素毎の受光面積自体を変えるので、ベイヤー配列のように画素数の割合によって人間の視感度への近似を行うのに比べてよりきめ細かな調節を行うことができ、必要に応じ、青透過フィルタB12と赤透過フィルタR21の受光面積比を変えることも可能である。 Since the CIGS imaging sensor of the present invention has high sensitivity in the visible light region as shown in FIG. 3, it can sufficiently cope with reducing the light receiving areas of the blue transmission filter B12 and the red transmission filter R21 as described above. In addition, since the light receiving area of each pixel is changed by the light shielding portion, finer adjustments can be made as compared with approximation to human visual sensitivity by the ratio of the number of pixels as in the Bayer array. Accordingly, the light receiving area ratio of the blue transmission filter B12 and the red transmission filter R21 can be changed.

図9は、図8のフィルタ配列の第2例を採用したCIGSセンサの模式断面図である。図9(A)に示すように、本発明のCIGS撮像センサはLSI400の上にCIGS系薄膜402を積層した構造となっており、1画素分の開口率が非常に大きい。そしてこの上にカラーフィルタ404が乗せられている。この図9(A)の模式断面図における基本構造自体は、フィルタ配列の第2例に限られるものでなく、本発明のCIGSセンサに共通である。 FIG. 9 is a schematic cross-sectional view of a CIGS sensor that employs a second example of the filter arrangement of FIG. As shown in FIG. 9A, the CIGS imaging sensor of the present invention has a structure in which a CIGS thin film 402 is laminated on an LSI 400, and the aperture ratio for one pixel is very large. A color filter 404 is placed thereon. The basic structure itself in the schematic cross-sectional view of FIG. 9A is not limited to the second example of the filter array, and is common to the CIGS sensor of the present invention.

図9(B)は、図9(A)の部分406を拡大した模式断面図であり、図8のフィルタ配列の第2例の断面を概念的に示している。なお、図8および図9(A)では対応する部分には同じ番号を付す。図9(B)に明らかなように、CIGS系薄膜402はそれぞれ画素をなすフォトダイオード408、410等に区分されており、フォトダイオード408の上には、赤外光透過フィルタIR11が載せられている。そして、フォトダイオード410の上には、受光面積を減らすための遮光部202および青透過フィルタB12が載せられている。 FIG. 9B is an enlarged schematic cross-sectional view of the portion 406 of FIG. 9A, and conceptually shows a cross section of the second example of the filter array of FIG. In FIG. 8 and FIG. 9 (A), the same numbers are assigned to corresponding parts. As is clear from FIG. 9B, the CIGS thin film 402 is divided into photodiodes 408, 410, etc. that form pixels, and an infrared light transmission filter IR11 is placed on the photodiode 408. Yes. On the photodiode 410, a light shielding portion 202 and a blue transmission filter B12 for reducing the light receiving area are placed.

図10は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのフィルタ配列の第3例である。この例は、ベイヤー配列における緑透過フィルタの全数の4分の1を規則的に赤外光透過フィルタIR11、IR33、IR51等に置き換えたものである。残りの4分の3は、ベイヤー配列と同様に緑透過フィルタG13、G22,G31、G42、G44、G35、G24等となっている。 FIG. 10 is a third example of the filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In this example, a quarter of the total number of green transmission filters in the Bayer array is regularly replaced with infrared light transmission filters IR11, IR33, IR51, and the like. The remaining three quarters are green transmission filters G13, G22, G31, G42, G44, G35, G24, etc., as in the Bayer array.

この結果、緑透過フィルタG13等の全数の割合は、赤透過フィルタR23や、青透過フィルタB32の全数の割合の1.5倍となっている。これによって、ベイヤー配列と同様にして緑透過フィルタに対応する画素の数を増やすことにより、緑透過フィルタの受光面積を増やして人間の目の視感度への近似を図っている。なお、図10のフィルタ配列においても、図8のフィルタ配列の考え方を加味し、赤透過フィルタR23等と青透過フィルタB32等に遮光部を設けてこれらの受光面積を減じることにより視感度への近似のための受光面積の調整を行うことも可能である。 As a result, the ratio of the total number of green transmission filters G13 and the like is 1.5 times the ratio of the total number of red transmission filters R23 and blue transmission filters B32. As a result, the number of pixels corresponding to the green transmission filter is increased in the same manner as the Bayer array, so that the light receiving area of the green transmission filter is increased to approximate the visual sensitivity of the human eye. Also in the filter arrangement of FIG. 10, taking into account the concept of the filter arrangement of FIG. It is also possible to adjust the light receiving area for approximation.

一方、赤外光透過フィルタIR11等は上記のように配列したので、配置は疎らであるとともにその全数の割合も、赤透過フィルタR23や、青透過フィルタB32の全数の割合の半分となっている。本発明のCIGS撮像センサは、図3のように赤外光域において高感度を有するため、画素全数の割合が少なくても充分対応できるとともに、赤外光は波長が長いので画素配置を可視光に比べて疎らにしても対応可能である。 On the other hand, since the infrared light transmission filters IR11 and the like are arranged as described above, the arrangement is sparse and the ratio of the total number is half of the ratio of the total number of the red transmission filter R23 and the blue transmission filter B32. . Since the CIGS imaging sensor of the present invention has high sensitivity in the infrared light region as shown in FIG. 3, it can sufficiently cope with a small proportion of the total number of pixels, and the infrared light has a long wavelength, so the pixel arrangement is visible light. Even if it is sparser than this, it can be handled.

次に、図10のフィルタ配列における赤外光透過フィルタが配置されていない画素に関する赤外光画像の補間について説明する。まず、緑透過フィルタG35に対応する画素については、その二つ上方にある赤外光透過フィルタIR15に対応する画素のデータ、二つ左方にある赤外光透過フィルタIR33に対応する画素のデータ、二つ下方にある赤外光透過フィルタIR55に対応する画素のデータおよび二つ右方にある赤外光透過フィルタIR37に対応する画素のデータの平均値によって補間が行われる。また、緑透過フィルタG24に対応する画素については、その右上方にある赤外光透過フィルタIR15に対応する画素のデータと左下方にある赤外光透過フィルタIR33に対応する画素のデータの平均値によって補間が行われる。さらに緑透過フィルタG26に対応する画素については、その左上方にある赤外光透過フィルタIR15に対応する画素のデータと右下方にある赤外光透過フィルタIR37に対応する画素のデータの平均値によって補間が行われる。 Next, interpolation of an infrared light image relating to a pixel in which an infrared light transmission filter is not arranged in the filter array of FIG. 10 will be described. First, with respect to the pixel corresponding to the green transmission filter G35, the pixel data corresponding to the infrared light transmission filter IR15 which is two above and the pixel data corresponding to the infrared light transmission filter IR33 which are two to the left. The interpolation is performed by the average value of the pixel data corresponding to the two infrared light transmission filters IR55 below and the pixel data corresponding to the two infrared light transmission filters IR37 on the right. For the pixel corresponding to the green transmission filter G24, the average value of the pixel data corresponding to the infrared light transmission filter IR15 at the upper right and the pixel data corresponding to the infrared light transmission filter IR33 at the lower left. Is interpolated. Further, for the pixel corresponding to the green transmission filter G26, the average value of the pixel data corresponding to the infrared light transmission filter IR15 in the upper left and the pixel data corresponding to the infrared light transmission filter IR37 in the lower right is determined. Interpolation is performed.

そして、赤透過フィルタR25に対応する画素について、上記のように補間して求めた緑透過フィルタG35、G24、G26にそれぞれ対応する画像の赤外光画像データと赤外光透過フィルタIR15に対応する画素のデータの平均値によって補間する。これを整理すると、次のようにIR15、IR33、IR55およびIR37に対応する赤外光画像データの重み付け平均となる。
{(IR15+IR33+IR55+IR37)/4+(IR15+IR33)/2
+(IR15+IR37)/2+IR15}/4
=(9IR15+3IR33+IR55+3IR37)/16
以下同様にして各可視光フィルタに対応する画素の赤外光画像データを補完していく。
The pixels corresponding to the red transmission filter R25 correspond to the infrared light image data and the infrared light transmission filter IR15 corresponding to the green transmission filters G35, G24, and G26 obtained by interpolation as described above. Interpolation is based on the average value of pixel data. When this is arranged, the weighted average of infrared light image data corresponding to IR15, IR33, IR55, and IR37 is obtained as follows.
{(IR15 + IR33 + IR55 + IR37) / 4 + (IR15 + IR33) / 2
+ (IR15 + IR37) / 2 + IR15} / 4
= (9IR15 + 3IR33 + IR55 + 3IR37) / 16
In the same manner, the infrared light image data of the pixels corresponding to each visible light filter is complemented.

緑透過フィルタが配置されていない画素に関する緑画像の補間については、まず、赤外光透過フィルタIR33に対応する画像をその周囲の緑透過フィルタG22、G42、G44、G24に対応する画素の平均をとって補間する。そして、上記のように補間して求めた赤外光透過フィルタIR33に対応する画像の緑画像データと、緑透過フィルタG22、G31およびG42の緑画像データの平均をとって、これらの中心にある赤透過フィルタB32に対応する画像も緑画像データを補間する。これを整理すると、次のようにG22、G31、G42、G44およびG24の重み付け平均となる。
{(G22+G42+G44+G24)/4+G22+G31+G42}/4
=(5G22+4G31+5G42+G44+G24)/16
以下同様にして赤外光透過フィルタ、赤透過フィルタおおび青透過フィルタに対応する画素の緑画像データを補完していく。なお、赤画像および青画像の補間については、図7と同様である。
For the interpolation of the green image for the pixels where the green transmission filter is not arranged, first, the average of the pixels corresponding to the green transmission filters G22, G42, G44, and G24 around the image corresponding to the infrared light transmission filter IR33 is calculated. Interpolate. Then, the average of the green image data of the image corresponding to the infrared light transmission filter IR33 obtained by interpolation as described above and the green image data of the green transmission filters G22, G31, and G42 is taken and is at the center thereof. The image corresponding to the red transmission filter B32 also interpolates the green image data. When this is arranged, the weighted average of G22, G31, G42, G44 and G24 is obtained as follows.
{(G22 + G42 + G44 + G24) / 4 + G22 + G31 + G42} / 4
= (5G22 + 4G31 + 5G42 + G44 + G24) / 16
In the same manner, the green image data of the pixels corresponding to the infrared light transmission filter, the red transmission filter, and the blue transmission filter are complemented. Note that the interpolation of the red image and the blue image is the same as in FIG.

なお、上記の赤透過フィルタのように配置が疎らな場合に補間を繰り返す場合、または、上記の緑透過フィルタのように配置が非対称なデータを用いて補間を行う場合には、上記のように補間で作ったデータを用いてさらに補間を行うことになり、実際とは異なる画像が得られてしまう可能性もある。このような場合においても、上記のような赤外光透過フィルタに対応する画素のデータのみによる補間、または、緑透過フィルタに対応する画像のデータのみによる補間に加え、図7で述べたように、補間しようとしている画素に影響している他の色のデータも加味して補間を行うのが有効である。 When interpolation is repeated when the arrangement is sparse like the above red transmission filter, or when interpolation is performed using asymmetric arrangement data such as the above green transmission filter, as described above Interpolation is further performed using data created by interpolation, and an image different from the actual one may be obtained. Even in such a case, in addition to the interpolation using only the pixel data corresponding to the infrared light transmission filter as described above, or the interpolation using only the image data corresponding to the green transmission filter, as described in FIG. It is effective to perform interpolation in consideration of data of other colors affecting the pixel to be interpolated.

図11は、第2実施例においてライブビューセンサ102の画像を画像記憶部26に記録する際のカメラ制御部116の動作を示すフローチャートである。操作部15によってこの機能を選択する操作を行うとことによってフローがスタートすると、まずステップS82で可動全反射ミラーを106aの位置に下げ、ペンタプリズム104からの光を全てライブビューセンサ102の方向に反射するよう光路切り替えを指示する。そしてステップS84においてミラー8を観察位置に固定し、レリーズを行っても撮影位置にアップしないようにする。さらにステップS86で表示部32による表示を行わせる。 FIG. 11 is a flowchart showing the operation of the camera control unit 116 when the image of the live view sensor 102 is recorded in the image storage unit 26 in the second embodiment. When the flow is started by performing an operation of selecting this function by the operation unit 15, first, the movable total reflection mirror is lowered to the position 106a in step S82, and all the light from the pentaprism 104 is directed to the live view sensor 102. The optical path switching is instructed to reflect. In step S84, the mirror 8 is fixed at the observation position so that it does not move up to the photographing position even when the release is performed. In step S86, display on the display unit 32 is performed.

次いでステップS88で赤外光モードが選択されているかどうかチェックし、該当すればステップS90に進み、AF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。さらに、ステップS92で、ライブビュー用の可視光カットフィルタ112をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行い、ステップS94に移行する。 Next, in step S88, it is checked whether or not the infrared light mode has been selected. 78. In step S92, the mirror / filter driving unit 114 is instructed to set the live view visible light cut filter 112 in the optical path to the live view sensor 102, and the process proceeds to step S94.

一方、ステップS88で、赤外光モードが選択されていないことが検知されるとステップS96に進み、AF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。そしてステップS98に進み、「画像融合モード」が選択されているかどうかチェックする。同一の被写体についての赤外光画像と可視光画像を融合処理することによって植物の埴生分析や病害虫被害の検出を行うことは知られているが、「画像融合モード」は、ほぼ同時に同一被写体に対して赤外光画像と可視光画像を取得することを可能にするもので、動きのある被写体についても互いにずれのない赤外光画像と可視光画像を得ることができる。 On the other hand, if it is detected in step S88 that the infrared light mode is not selected, the process proceeds to step S96, and an instruction to set the infrared light cut filter 68 for AF to the optical path to the CIGSAF sensor 70 is given by the mirror / filter. This is performed for the drive unit 78. In step S98, it is checked whether the “image fusion mode” is selected. Although it is known to analyze plant vegetation and detect pest damage by fusing infrared and visible light images of the same subject, the “image fusion mode” is applied to the same subject almost simultaneously. On the other hand, it is possible to obtain an infrared light image and a visible light image, and an infrared light image and a visible light image that are not shifted from each other can be obtained even for a moving subject.

ステップS98で画像融合モードへの設定が検出ない場合は、可視光モードが選択されていることを意味するからステップS100に進み、ライブビュー用の赤外光カットフィルタ110をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行い、ステップS94に移行する。 If the setting to the image fusion mode is not detected in step S98, it means that the visible light mode is selected, so the process proceeds to step S100, and the live view infrared light cut filter 110 is connected to the live view sensor 102. An instruction to set the optical path is given to the mirror / filter driving unit 114, and the process proceeds to step S94.

これに対し、ステップS98で画像融合モードへの設定が検出されると、ステップS102に進み、ライブビューセンサ102への光路から赤外光カットフィルタ110および可視光カットフィルタ112を両者とも除去する指示をミラー/フィルタ駆動部114に対して行う。これは、ライブビューセンサ102によって赤外光画像と可視光画像の両者をほぼ同時に取得するためである。 On the other hand, when the setting to the image fusion mode is detected in step S98, the process proceeds to step S102, and an instruction to remove both the infrared light cut filter 110 and the visible light cut filter 112 from the optical path to the live view sensor 102 is given. Is performed on the mirror / filter driving unit 114. This is because the live view sensor 102 acquires both the infrared light image and the visible light image almost simultaneously.

次いでステップS104で表示部32によるライブビュー表示を禁止する指示を出してステップS94に移行する。これは交換レンズ4による可視光と赤外光の結像位置が異なるので赤外光画像と可視光画像をそのまま表示部32に表示するとピントがあった像と合わない像が重なり、見づらい表示になるからである。なお、ステップS104においては、表示部32による表示を全面的に禁止する代わりに、赤外光画像と可視光画像のうちピントの合っている方(通常は可視光像)の画素情報のみを抽出して表示する指示を行ってもよい。この場合、フィルタを外しているので、これらの画素にもピントの合っていない画像情報の光が入射入しているが、ピントの合っている画像情報の光の強度が優勢なので表示は可能である。また上記のような表示の全面禁止かまたはピントの合っていない画像用の画素情報のみの表示禁止かを予め選択可能としておき、ステップS104で選択された方の指示を出すようにしてもよい。 Next, in step S104, an instruction to prohibit live view display by the display unit 32 is issued, and the process proceeds to step S94. This is because the imaging positions of visible light and infrared light by the interchangeable lens 4 are different, so that when the infrared light image and the visible light image are displayed as they are on the display unit 32, the image that does not match the focused image overlaps, making it difficult to see. Because it becomes. In step S104, instead of completely prohibiting display by the display unit 32, only the pixel information of the infrared light image and the visible light image that are in focus (usually the visible light image) is extracted. May be displayed. In this case, because the filter is removed, light of image information that is not in focus is incident on these pixels, but display is possible because the light intensity of the image information that is in focus is dominant. is there. Further, it may be possible to select in advance whether to prohibit the entire display as described above or display only pixel information for an image that is not in focus, and to issue an instruction of the one selected in step S104.

ステップS94では、レリーズ操作が行われたかどうかをチェックする。そしてレリーズ操作がなければステップS86に戻り、以下、レリーズ操作が検出されるまでステップS86からステップS104を繰り返す。これによって、操作部15によるモード切り替えに対応する。なお、図4で述べたように、「指示」の機械的実行には遅延期間が設けられているので、図11においても、実際にモード切り替えが行われない限り、ステップS86からステップS104の繰返しの中でフィルタの駆動が生じるわけではない。これは、ステップS86およびステップS104による表示部32の表示と禁止の切り替えについても同様である。 In step S94, it is checked whether or not a release operation has been performed. If there is no release operation, the process returns to step S86. Thereafter, steps S86 to S104 are repeated until a release operation is detected. This corresponds to mode switching by the operation unit 15. As described with reference to FIG. 4, since a delay period is provided for the mechanical execution of the “instruction”, even in FIG. In this case, driving of the filter does not occur. The same applies to the display and prohibition switching of the display unit 32 in step S86 and step S104.

ステップS94では、レリーズ操作が検出されるとステップS106に進み、レンズ光学系6のAF駆動が行われ、これによってピンとが合うとステップS108のライブビュー記録処理を行う。このAF駆動は赤外光画像に対するものである場合と可視光画像に対するものである場合がある。次いでステップS110で画像融合モードが設定されているかどうかを検出し、該当しなければ直ちにフローを終了する。 In step S94, when a release operation is detected, the process proceeds to step S106, where AF driving of the lens optical system 6 is performed, and when the pin is aligned, a live view recording process of step S108 is performed. This AF drive may be for an infrared light image or a visible light image. Next, in step S110, it is detected whether the image fusion mode is set. If not, the flow is immediately terminated.

一方、ステップS110で画像融合モードの設定が検出されるとステップS112に進み、AF制御部36によってレンズ光学系6を赤外光補正駆動する。換言すると、画像融合モードが設定されている場合、ステップS106におけるAF駆動およびステップS108におけるライブビュー記録処理は可視光像に対するものであるが、ステップS112では、可視光についてのピント位置から赤外光についてのピント位置までの所定の補正駆動をAF駆動部38によってレンズ光学系6に行わせるものである。この赤外光補正駆動は極めて短時間に行われ、直ちにステップS114のライブビュー赤外光記録処理に入る。そして処理が完了するとフローを終了する。以上のような機能の詳細は後述するが、基本的には画像融合モードにおいては、ステップS108にて可視光画像の記録を行い、引き続いてほぼ同時にステップS114において赤外光画像の記録を行うものである。 On the other hand, when the setting of the image fusion mode is detected in step S110, the process proceeds to step S112, and the AF control unit 36 drives the lens optical system 6 for infrared light correction. In other words, when the image fusion mode is set, the AF driving in step S106 and the live view recording process in step S108 are for the visible light image, but in step S112, the infrared light is shifted from the focus position for visible light. The lens optical system 6 is caused to perform predetermined correction driving up to the focus position for the AF driving unit 38. This infrared light correction drive is performed in a very short time, and immediately enters the live view infrared light recording process of step S114. Then, when the process is completed, the flow ends. Although details of the above functions will be described later, basically, in the image fusion mode, a visible light image is recorded in step S108, and subsequently, an infrared light image is recorded almost simultaneously in step S114. It is.

図12は、図11のステップS108におけるライブビュー記録処理およびステップS114におけるライブビュー赤外光記録処理の詳細を示すフローチャートであり、いずれにも共通して利用できるものである。フローがスタートするとステップS122で赤外光撮影モードに設定されているかどうかのチェックが行われる。そして該当しなければステップS124に進み、RGBの画素のデータを読み出すことにより可視光画像の画素情報を得る。そしてステップS126でRGBの補間処理を行う。次いで、ステップS128では、画像融合モードに設定されているかどうかのチェックを行い、該当しなければステップS130に進んでRGBの可視光カラー画像について画像処理を行う。そしてステップS132に進み、その画像を画像記録部26に記録してフローを終了する。 FIG. 12 is a flowchart showing details of the live view recording process in step S108 in FIG. 11 and the live view infrared light recording process in step S114, which can be used in common for both. When the flow starts, it is checked in step S122 whether or not the infrared light photographing mode is set. If not, the process proceeds to step S124, and pixel information of the visible light image is obtained by reading out RGB pixel data. In step S126, RGB interpolation processing is performed. Next, in step S128, it is checked whether or not the image fusion mode is set. If not, the process proceeds to step S130 to perform image processing on the RGB visible light color image. In step S132, the image is recorded in the image recording unit 26, and the flow ends.

一方、ステップS122で赤外光モードへの設定が検出されるとステップS134に進み、IRの画素のデータを読み出すことにより赤外光画像の画素情報を得る。そしてステップS136でIRの補間処理を行う。次いで、ステップS138では、画像融合モードに設定されているかどうかのチェックを行うが、この場合は赤外光モードであって該当しないのでステップS140に進み、赤外光画像について画像処理を行う。そしてステップS132に進み、その画像を画像記録部26に記録してフローを終了する。 On the other hand, when the setting to the infrared light mode is detected in step S122, the process proceeds to step S134, and the pixel information of the infrared light image is obtained by reading the IR pixel data. In step S136, IR interpolation processing is performed. Next, in step S138, it is checked whether or not the image fusion mode is set. In this case, since the infrared light mode is not applicable, the process proceeds to step S140, and image processing is performed on the infrared light image. In step S132, the image is recorded in the image recording unit 26, and the flow ends.

さらにステップS128で画像融合モードへの設定が検出された場合、ステップS134に進んでIRの画素のデータを読み出すことにより赤外光画像の画素情報を得る。そしてステップS136でIRの補間処理を行う。これらによって、ステップS124、126による可視光画像情報に加えて赤外光画像情報も得ることができる。次いで、ステップS138で、画像融合モードに設定されているかどうかのチェックを行うが、この場合は画像融合モードなのでステップS142に進み、ステップS134およびステップS136の処理によって得られた赤外光画像が赤外光補正駆動後のものであるかどうかのチェックを行う。 Further, when the setting to the image fusion mode is detected in step S128, the process proceeds to step S134, and the pixel information of the infrared light image is obtained by reading the IR pixel data. In step S136, IR interpolation processing is performed. By these, in addition to visible light image information in steps S124 and 126, infrared light image information can also be obtained. Next, in step S138, it is checked whether or not the image fusion mode is set. In this case, since it is the image fusion mode, the process proceeds to step S142, and the infrared light image obtained by the processing in steps S134 and S136 is red. It is checked whether it is after external light correction driving.

ここで、ステップS142に該当するか否かがどのような意味を持つかについて補足する。まず、ステップS142に該当しない場合は、図12のフローが図11のステップS108で実行されている場合に相当する。そしてステップS124およびステップS126で得られる可視光画像は図11のステップS106における可視光に対するAF駆動によりピントが合ったものであり、ステップS134およびステップS136で得られる赤外光画像はピントがずれたものとなっている。一方、ステップS142に該当する場合は、図12のフローが図11のステップS114で実行されている場合に相当する。そしてステップS134およびステップS136で得られる赤外光画像は図11のステップS112における赤外光補正駆動によりピントが合ったものであり、ステップS124およびステップS126で得られる可視光画像はピントがずれたものとなっている。 Here, the meaning of whether or not the step corresponds to step S142 will be supplemented. First, when it does not correspond to step S142, it corresponds to the case where the flow of FIG. 12 is performed by step S108 of FIG. The visible light image obtained in step S124 and step S126 is in focus by AF driving for visible light in step S106 in FIG. 11, and the infrared light image obtained in step S134 and step S136 is out of focus. It has become a thing. On the other hand, the case corresponding to step S142 corresponds to the case where the flow of FIG. 12 is executed in step S114 of FIG. The infrared light images obtained in steps S134 and S136 are in focus by the infrared light correction drive in step S112 in FIG. 11, and the visible light images obtained in steps S124 and S126 are out of focus. It has become a thing.

そこで、得られた画像が赤外光補正駆動後の画像に該当しないとステップS142で判断された場合はステップS144に進み、ピントの合っているRGBの可視光画像について画像処理をおこなう。次いでステップS146においてピントの合っていない赤外光画像について補助的に画像処理を行う。そしてステップS148において、可視光画像を赤外光画像情報で補正した画像を作成する。この画像は基本的には可視光画像であるが、ピントがずれてデフォーカス状態にある赤外光画像の情報を加味することにより、ローパスフィルタ効果等で可視光画像の画質を改善するものである。以上の処理を経てステップS132に進み、ステップS144、ステップS146およびステップS148で得られたそれぞれの画像を記録してフローを終了する。 Therefore, if it is determined in step S142 that the obtained image does not correspond to the image after infrared light correction driving, the process proceeds to step S144, and image processing is performed on the focused RGB visible light image. Next, in step S146, auxiliary infrared image processing is performed on the in-focus infrared light image. In step S148, an image obtained by correcting the visible light image with the infrared light image information is created. This image is basically a visible light image, but it improves the image quality of the visible light image by the low-pass filter effect, etc., by adding the information of the infrared light image that is out of focus and defocused. is there. The process proceeds to step S132 through the above processing, and the images obtained in steps S144, S146, and S148 are recorded, and the flow is terminated.

一方、得られた画像が赤外光補正駆動後の画像に該当するとステップS142で判断された場合はステップS150に進み、ピントの合っている赤外光画像について画像処理をおこなう。次いでステップS152においてピントの合っていないRGBの可視光画像について補助的に画像処理を行う。そしてステップS156において、赤外光画像を可視光画像情報で補正した画像を作成する。この画像は基本的には赤外光画像であるが、ピントがずれてデフォーカス状態にある可視光画像の情報を加味することにより、ローパスフィルタ効果等で赤外光画像の画質を改善するものである。 On the other hand, if it is determined in step S142 that the obtained image corresponds to an image after infrared light correction driving, the process proceeds to step S150, and image processing is performed on the focused infrared light image. Next, in step S152, image processing is performed supplementarily for the visible RGB light image that is not in focus. In step S156, an image obtained by correcting the infrared light image with the visible light image information is created. This image is basically an infrared light image, but it improves the image quality of the infrared light image by the low-pass filter effect, etc. by adding the information of the visible light image that is out of focus and defocused. It is.

さらに、ステップS156では、図11のステップS108で記録された赤外光補正駆動前画像を読み出す。これによって、ピントの合った赤外光画像、ピントの合った可視光画像、ピントの外れた赤外光画像、ピントの外れた可視光画像、補正赤外光画像および補正可視光画像が揃うことになり、次のステップS158でこれらの画像に基づく画像融合処理が行われる。 Further, in step S156, the image before infrared light correction driving recorded in step S108 of FIG. As a result, a focused infrared light image, a focused visible light image, an out-of-focus infrared light image, an out-of-focus visible light image, a corrected infrared light image, and a corrected visible light image are aligned. In the next step S158, image fusion processing based on these images is performed.

ステップS158の画像融合処理の内容は基本的にはピントの合った赤外光画像とピントの合った可視光画像の融合であり、これによって一方のみでは判断できない画像診断が可能となる。また、これに代えて、補正赤外光画像および補正可視光画像の融合による画像診断も可能である。さらに、ピントの合った可視光画像と、ピントの外れた可視光画像の融合により、核の締まったソフトフォーカス可視光画像を得ることもできる。同様に、ピントの合った赤外光画像と、ピントの外れた赤外光画像によりソフトフォーカス赤外光画像を得ることもできる。さらに、ピントの合った可視光画像を、ピントの合った赤外光画像で補正することにより、赤外光カットフィルタをかけて得た可視光画像に準じた画像を得ることもできる。その逆に、ピントの合った赤外光画像をピントの合った可視光画像で補正することにより、可視光カットフィルタをかけて得た赤外光画像に準じた画像を得ることもできる。これらの処理のどれを選ぶかは操作部15により設定できるが、被写体に応じ自動的に選択することも可能である。 The content of the image fusion processing in step S158 is basically the fusion of the focused infrared light image and the focused visible light image, thereby enabling image diagnosis that cannot be determined by one alone. In place of this, image diagnosis by fusing a corrected infrared light image and a corrected visible light image is also possible. Furthermore, a soft-focused visible light image with a tight core can be obtained by fusing a focused visible light image and an out-of-focus visible light image. Similarly, a soft focus infrared light image can be obtained from an in-focus infrared light image and an out-of-focus infrared light image. Furthermore, by correcting the focused visible light image with the focused infrared light image, an image according to the visible light image obtained by applying the infrared light cut filter can be obtained. Conversely, by correcting the focused infrared light image with the focused visible light image, it is also possible to obtain an image according to the infrared light image obtained by applying the visible light cut filter. Which of these processes is selected can be set by the operation unit 15, but can be automatically selected according to the subject.

以上のようなステップS158の処理が終了すると、ステップS132に至り、処理により得られた画像が記録されてフローを終了する。なお、ステップS132において記録する画像は、ステップS158で処理した全ての画像であってもよく、またはステップS158の処理の中で選択されて最終的に必要と判断された画像であってもよい。この選択についても、操作部15により設定できるが、処理結果に応じてステップS158の中で自動的に選択するよう構成することも可能である。 When the process of step S158 as described above is completed, the process proceeds to step S132, the image obtained by the process is recorded, and the flow ends. Note that the image to be recorded in step S132 may be all the images processed in step S158, or may be an image selected in the process of step S158 and finally determined to be necessary. This selection can also be set by the operation unit 15, but it can be configured to automatically select in step S158 according to the processing result.

上記の図11および図12の画像記録機能に関するフローチャートの適用対象は、第2実施例におけるような一眼レフカメラのライブビューセンサ102の画像記録に限るものではなく、例えば、CIGSセンサへの画像記録専用に構成した可視光/赤外光画像記録カメラにも適用可能である。このような可視光/赤外光画像記録カメラは、例えば図5において焦点板10、ペンタプリズム104およびアイピース14などの光学ファインダ系を除去するとともに、撮像部20に代えてその位置にCIGS撮像センサを配置することによって構成可能である。その際、レンズ光学系6からCIGS撮像センサに向かって直進する光路中に出し入れできるよう赤外光カットフィルタ110および可視光カットフィルタ112を設ける。また、可動ミラー8に代え、入射光の大半が透過成分として直進するとともに反射光が下方の測光兼用AFセンサ34に向かう固定のハーフミラーを設ける。 The application target of the flowchart relating to the image recording function of FIG. 11 and FIG. 12 is not limited to the image recording of the live view sensor 102 of the single-lens reflex camera as in the second embodiment. For example, the image recording to the CIGS sensor The present invention can also be applied to a dedicated visible / infrared light image recording camera. Such a visible light / infrared light image recording camera removes the optical finder system such as the focusing screen 10, the pentaprism 104, and the eyepiece 14 in FIG. 5 and replaces the imaging unit 20 with a CIGS imaging sensor. Can be configured. At that time, an infrared light cut filter 110 and a visible light cut filter 112 are provided so that they can be taken in and out of an optical path that goes straight from the lens optical system 6 toward the CIGS image sensor. Further, instead of the movable mirror 8, a fixed half mirror is provided in which most of the incident light travels straight as a transmission component and the reflected light travels to the lower photometry / AF sensor 34.

図13は、本発明の第3実施例のブロック図であり、内視鏡システムを構成している。内視鏡システムは体内に飲み込まれて消化器内部を撮影し画像データを体外に送信するカプセル内視鏡502と、送信されて画像データを体外で受信してモニタする体外モニタ504を有する。カプセル内視鏡502は、透明な保護窓506を有する密閉構造になっており、保護窓506を通り撮像レンズ508によって結像される消化器内部の画像がCIGS撮像センサ510で撮像される。CIGS画像センサ510は、図3で説明したとおりの分光感度を持ち、高感度で可視光域の撮像が可能であるともに赤外光においても高感度での撮像が可能なものである。撮像レンズ508は、レンズ駆動部512によってその画角およびピント位置が調節可能である。 FIG. 13 is a block diagram of a third embodiment of the present invention, which constitutes an endoscope system. The endoscope system includes a capsule endoscope 502 that is swallowed into the body, images the inside of the digestive organs, and transmits image data to the outside of the body, and an extracorporeal monitor 504 that receives and monitors the image data transmitted outside the body. The capsule endoscope 502 has a sealed structure having a transparent protective window 506, and an image inside the digestive organ formed by the imaging lens 508 through the protective window 506 is captured by the CIGS imaging sensor 510. The CIGS image sensor 510 has the spectral sensitivity as described with reference to FIG. 3 and can capture an image in the visible light range with high sensitivity and can also perform image capture with high sensitivity even in infrared light. The angle of view and the focus position of the imaging lens 508 can be adjusted by the lens driving unit 512.

第3実施例のCIGSセンサ510は、図7から図10に示したようなカラーフィルタを持っておらず、全ての画素に可視光域から赤外光域にわたる広範囲の光が入射しうる。つまり、第3実施例での撮像における光の分解は、受光側でのカラーフィルタによるのではなく、光源側での光の切換えによって行うようにしている。具体的には、光源として赤、緑、青および赤外の発光ダイオード(以下適宜「LED」と称する)が用いられ、これらが時分割で順次発光することにより各発光タイミングにおけるCIGSセンサ510撮像出力が、各色での画像データとなる。 The CIGS sensor 510 of the third embodiment does not have a color filter as shown in FIGS. 7 to 10, and a wide range of light ranging from the visible light region to the infrared light region can be incident on all pixels. That is, the light decomposition in the imaging in the third embodiment is not performed by the color filter on the light receiving side, but is performed by switching the light on the light source side. Specifically, red, green, blue, and infrared light emitting diodes (hereinafter referred to as “LEDs” as appropriate) are used as light sources, and these emit light sequentially in a time-sharing manner, whereby CIGS sensor 510 imaging output at each light emission timing. Is the image data for each color.

LEDは撮像レンズ508の光軸まわりに同心的に多数設けられているが、図13では、簡単のため、例として緑LED514および赤外LED516をそれぞれ一つ図示している。例えば緑LED514が発光しているときのCIGS撮像センサ510の撮像出力が緑画像データとなるとともに、赤外LED516が発光しているときのCIGS撮像センサ510の撮像出力が赤外画像データとなる。なお、可視光と赤外光では結像位置にズレがあるので必要に応じレンズ駆動部512が結像位置を調節する。第3実施例は内視鏡であり、撮影対象である体内は充分暗いのでこのように光源光の時分割による光の分解が可能となる。光源、撮像、および撮像レンズ等の関係については後に詳述する。 A large number of LEDs are concentrically provided around the optical axis of the imaging lens 508. In FIG. 13, for the sake of simplicity, one green LED 514 and one infrared LED 516 are shown as an example. For example, the imaging output of the CIGS imaging sensor 510 when the green LED 514 emits light becomes green image data, and the imaging output of the CIGS imaging sensor 510 when the infrared LED 516 emits light becomes infrared image data. In addition, since there is a deviation in the imaging position between visible light and infrared light, the lens driving unit 512 adjusts the imaging position as necessary. The third embodiment is an endoscope, and the inside of the body to be photographed is sufficiently dark, so that the light can be decomposed by time division of the light source light in this way. The relationship between the light source, imaging, imaging lens, etc. will be described in detail later.

LEDドライバ518は、内視鏡制御部520の指示に基づいてLED514、516の点灯タイミングを制御する。内視鏡制御部520はカプセル内視鏡502全体を制御するもので、その機能は記憶部522に記憶されたプログラムに従う。記憶部522は、さらに内視鏡制御部520の機能に必要なデータ等を必要に応じ一時的に記憶する。 The LED driver 518 controls the lighting timing of the LEDs 514 and 516 based on an instruction from the endoscope control unit 520. The endoscope control unit 520 controls the entire capsule endoscope 502, and its function follows a program stored in the storage unit 522. The storage unit 522 further temporarily stores data necessary for the function of the endoscope control unit 520 as needed.

センサドライバ524は内視鏡制御部520の指示に基づいてCIGS撮像センサ510を制御するとともにCIGS撮像センサからの各色別画像RAWデータを画像バッファ526に格納する。画像バッファ526は所定撮像回数分の各色別画像RAWデータを格納可能であり、無線通信部528は画像バッファ526の各色別画像RAWデータをFIFOで取り出してアンテナ530から体外に送信する。電池532はボタン電池などで構成され、カプセル内視鏡502全体に電力を供給する。 The sensor driver 524 controls the CIGS imaging sensor 510 based on an instruction from the endoscope control unit 520 and stores each color-specific image RAW data from the CIGS imaging sensor in the image buffer 526. The image buffer 526 can store the image RAW data for each color for a predetermined number of times, and the wireless communication unit 528 extracts the image RAW data for each color in the image buffer 526 using a FIFO and transmits it from the antenna 530 to the outside of the body. The battery 532 is configured by a button battery or the like, and supplies power to the entire capsule endoscope 502.

体外モニタ504は、無線通信部534を有し、カプセル内視鏡502から送信された各色別画像RAWデータをアンテナ536で受信して画像バッファ538に格納する。これらの機能はモニタ制御部540によって制御される。モニタ制御部540は記憶部542に記憶されたプログラムに従って体外モニタ504全体を制御する。記憶部542は、さらにモニタ制御部540の機能に必要なデータ等を必要に応じ一時的に記憶する。 The extracorporeal monitor 504 includes a wireless communication unit 534, receives each color image RAW data transmitted from the capsule endoscope 502 by the antenna 536, and stores the received image RAW data in the image buffer 538. These functions are controlled by the monitor control unit 540. The monitor control unit 540 controls the entire external monitor 504 according to the program stored in the storage unit 542. The storage unit 542 further temporarily stores data and the like necessary for the function of the monitor control unit 540 as necessary.

画像処理部544は、モニタ制御部540の指示に基づき画像バッファ548に格納されている各色別RAWデータを画像信号に画像処理するとともに、赤画像信号、緑画像信号および青画像信号からカラー画像信号を作成しレコーダ546に記憶する。また、赤外画像信号についてもこれをレコーダ546に記録する。記録されたデータは適宜表示部548でモニタすることができる。また、画像処理部からのカラー画像信号または赤外画像信号はリアルタイムで表示部548により直接モニタすることもできる。 The image processing unit 544 performs image processing on each color-specific RAW data stored in the image buffer 548 based on an instruction from the monitor control unit 540 into an image signal, and from the red image signal, the green image signal, and the blue image signal, Is stored in the recorder 546. The infrared image signal is also recorded in the recorder 546. The recorded data can be monitored by the display unit 548 as appropriate. Further, the color image signal or infrared image signal from the image processing unit can be directly monitored by the display unit 548 in real time.

図14は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第1の例を示す正面図である。図13と対応する部分には同一番号を付す。図14から明らかなように、透明の保護窓506の内側の撮像レンズ508の周囲には緑LED514が互いに90度ずつ隔てた回転対象に4個設けられている。これらを結んだ線550は正方形である。また、緑LED514から45度回転した正方形552の頂点部分には、赤外LED516が互いに90度ずつ隔てた回転対象に4個設けられている。さらに、縦長長方形554の頂点部分には赤LED556が4個設けられているとともに、横長長方形558の頂点部分には青LED560が4個設けられている。この結果、赤、緑および青の各LEDは図14図で見て垂直方向および水平方向のいずれにも線対称の配置となり、各色について垂直方向と水平方向のいずれにも照明の対称性が保たれる。 FIG. 14 is a front view showing a first example of an LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Parts corresponding to those in FIG. As is apparent from FIG. 14, four green LEDs 514 are provided around the imaging lens 508 inside the transparent protective window 506 and are to be rotated 90 degrees apart from each other. A line 550 connecting them is a square. In addition, four infrared LEDs 516 are provided at the apex portion of the square 552 rotated by 45 degrees from the green LED 514 to be rotated objects that are separated from each other by 90 degrees. Further, four red LEDs 556 are provided at the apex portion of the vertically long rectangle 554, and four blue LEDs 560 are provided at the apex portion of the horizontally long rectangle 558. As a result, the red, green, and blue LEDs are arranged in line symmetry in both the vertical and horizontal directions as shown in FIG. 14, and the symmetry of illumination is maintained in both the vertical and horizontal directions for each color. Be drunk.

図15は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第2の例を示す正面図である。図15においても、図13と対応する部分には同一番号を付す。図15における緑LED514および赤外LED516の配置は、図14と共通である。これに対し、赤LED562は、緑LED514から左に22.5度回転した正方形564の頂点部分に互いに90度ずつ隔てた回転対象に4個設けられている。また、青ダイオード566は、緑LED514から右に22.5度回転した正方形568の頂点部分に互いに90度ずつ隔てた回転対象に4個設けられている。この結果、赤、緑および青の各LEDは図14図で見てそれぞれ上下左右の四方向にそれぞれ密集して配置されることになり、各色のLEDがずれて配置されていることによる照明影色ムラが軽減される。さらに、各色とも正方形の頂点部分に配されているので撮像レンズ508の光軸まわりに互いに回転対象の配置となる。 FIG. 15 is a front view showing a second example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Also in FIG. 15, the same reference numerals are given to the portions corresponding to those in FIG. The arrangement of the green LED 514 and the infrared LED 516 in FIG. 15 is the same as that in FIG. On the other hand, four red LEDs 562 are provided on the object to be rotated 90 degrees apart from each other at the apex of a square 564 rotated 22.5 degrees to the left from the green LED 514. In addition, four blue diodes 566 are provided on the top of a square 568 that is rotated 22.5 degrees to the right from the green LED 514 on a rotation target that is 90 degrees apart from each other. As a result, the red, green, and blue LEDs are densely arranged in the four directions, up, down, left, and right, respectively, as seen in FIG. Color unevenness is reduced. Further, since each color is arranged at the apex of the square, the rotation targets are arranged around the optical axis of the imaging lens 508.

図16は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第3の例を示す正面図である。図16においても、図13と対応する部分には同一番号を付す。図16における緑LED514および赤外LED516の配置は、図14と共通である。これに対し、左に45度傾いた縦長長方形570の頂点部分には赤LED572が4個設けられているとともに、右に45度傾いた縦長長方形574の頂点部分には青LED576が4個設けられている。この結果、赤、緑および青の各LEDは図16図で見て対抗する赤外LEDを結ぶ左45度傾いた線および右45度傾いた線のいずれについても線対称の配置となり、各色についてこれらのいずれの方向についても照明の対称性が保たれる。さらに、赤、緑および青の各LEDは図16図で見てそれぞれ上下左右の四方向にそれぞれ密集して配置されることになり、各色のLEDがずれて配置されていることによる照明影色ムラが軽減される。 FIG. 16 is a front view showing a third example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Also in FIG. 16, the same reference numerals are given to the portions corresponding to FIG. The arrangement of the green LED 514 and the infrared LED 516 in FIG. 16 is the same as that in FIG. In contrast, four red LEDs 572 are provided at the apex portion of the vertical rectangle 570 inclined 45 degrees to the left, and four blue LEDs 576 are provided at the apex portion of the vertical rectangle 574 inclined 45 degrees to the right. ing. As a result, the red, green, and blue LEDs are arranged in line symmetry with respect to both the 45 ° left line and the right 45 ° line connecting the opposing infrared LEDs as seen in FIG. The illumination symmetry is maintained in any of these directions. Further, the red, green, and blue LEDs are densely arranged in the four directions of top, bottom, left, and right as seen in FIG. Unevenness is reduced.

以上、図14から図16に示したLEDの配置例は、各図において緑LEDが上下左右に配置され、赤外LEDがこれから45度回転した位置に配されているが、全体の配置はこれに限るものではなく、CIGS撮像センサの画素配置の升目方向との関係で適宜全体を回転させて配置してもよい。例えば、図14から図16に示したLEDの配置例は、CIGS撮像センサの画素配置の升目の上下左右方向を基準として緑LEDが上下左右に配置したものであるが、これを全体に45度回転させ、赤外LEDが画素配置の升目方向に合わせて上下左右に配置されるようにしてもよい。この場合、緑LEDがこれから45度回転した位置に配置されることになる。 As described above, in the LED arrangement examples shown in FIGS. 14 to 16, the green LEDs are arranged vertically and horizontally and the infrared LEDs are arranged at a position rotated 45 degrees from now on. The arrangement is not limited to this, and the entire arrangement may be appropriately rotated in relation to the grid direction of the pixel arrangement of the CIGS image sensor. For example, in the LED arrangement examples shown in FIGS. 14 to 16, the green LEDs are arranged vertically and horizontally with reference to the vertical and horizontal directions of the pixel arrangement of the CIGS imaging sensor. The infrared LED may be arranged vertically and horizontally according to the grid direction of the pixel arrangement by rotating. In this case, the green LED is arranged at a position rotated 45 degrees from now.

図17は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第4の例を示す正面図である。赤、緑、青および赤外のLEDを撮像レンズ508の光軸まわりに配置する場合、全ての色のLEDを互いに同数とすることに限るものではない。図17はこのようなものの例として、4個の緑LED514、2個の赤LED578および2個の青LED580を採用している。緑LED514の数が赤LED578および青LED580の倍あるのは、緑の発光量を相対的に多くして視感度に合わせるためである。また、図17では8個の赤外LED582を配置して赤外光量を増加させ、赤外光による体内観察能力を充実している。 FIG. 17 is a front view showing a fourth example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. When red, green, blue, and infrared LEDs are arranged around the optical axis of the imaging lens 508, the number of LEDs of all colors is not limited to the same number. FIG. 17 employs four green LEDs 514, two red LEDs 578, and two blue LEDs 580 as examples of such. The reason why the number of green LEDs 514 is twice that of red LEDs 578 and blue LEDs 580 is to relatively increase the amount of emitted green light to match the visibility. In FIG. 17, eight infrared LEDs 582 are arranged to increase the amount of infrared light, and the in-vivo observation ability with infrared light is enhanced.

なお、図14から図17ではすべて合計16個のLEDを採用しているが、これに限られるものではない。配置が可能な場合、LEDの合計数をさらに増加して照明ムラを軽減することができる。また、最低限の照明の対称性を維持するため、各色各一対のLEDを採用し合計8個のLEDを採用して構成を簡単にすることも可能である。この場合、緑LEDの対を結ぶ線と赤外LEDの対を結ぶ線を90度で交差させるとともに、赤LEDの対と青LEDの対については、それらを結ぶ線が緑LEDの対を結ぶ線の左右にそれぞれ45度回転した状態の配置として、赤と青のLEDが緑LEDの両側に隣接するようにするのが望ましい。なお、配置スペースの事情が許せば、このように8個のLEDを等間隔に配置するのに代えて、赤と青のLEDを緑LEDの両側に密接させ、赤、緑、青LED相互の位置ズレができるだけ少なくなるようにした配置も可能である。 In addition, in FIG. 14 to FIG. 17, a total of 16 LEDs are employed, but the present invention is not limited to this. If arrangement is possible, the total number of LEDs can be further increased to reduce illumination unevenness. Moreover, in order to maintain the minimum symmetry of illumination, it is also possible to adopt a pair of LEDs for each color and to adopt a total of eight LEDs to simplify the configuration. In this case, the line connecting the pair of green LEDs and the line connecting the pair of infrared LEDs are crossed at 90 degrees, and for the pair of red LEDs and the pair of blue LEDs, the line connecting them connects the pair of green LEDs. It is desirable that the red and blue LEDs be adjacent to both sides of the green LED as an arrangement in a state rotated 45 degrees to the left and right of the line. If the arrangement space permits, instead of arranging the eight LEDs at regular intervals in this way, the red and blue LEDs are brought into close contact with both sides of the green LED, and the red, green and blue LEDs are mutually connected. An arrangement in which the positional deviation is as small as possible is also possible.

図18は、第3実施例のカプセル内視鏡502におけるカラー・赤外モードでの動作の各色LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。カラー・赤外モードでは、可視光のカラー画像および赤外画像が並行して取得される。図18から明らかなように、すべての赤LEDはt1からちt2、全ての緑LEDはt3からt4、すべての青LEDはt5からt6、すべての赤外LEDはt7からt8のタイミングで互いに重なることなく時分割でそれぞれ点灯する。そして、4色のLEDの点灯が一巡すると、再び全ての赤LEDがt9からt10のタイミングで点灯し、以下同様にして緑、青、赤外のLEDが点灯して同様の循環で時分割点灯を繰り返す。t1からt8までの時間は通常のカラー動画の1フレーム時間程度であり、各色の発光量は時分割しない場合の4分の1以下となるが、図3に示すようにCIGSセンサは通常のCMOSセンサに比べて高感度および広帯域の特性なので、短時間の発光量でも充分な光源光となる。 FIG. 18 shows the light emission timing of each color LED, the operation timing of the photoelectric conversion unit, the operation timing of the AD trunk, and the operation timing of the wireless communication unit in the color / infrared mode of operation in the capsule endoscope 502 of the third embodiment. It is a timing chart which shows the relationship. In the color / infrared mode, a visible color image and an infrared image are acquired in parallel. As is clear from FIG. 18, all red LEDs overlap each other at the timing from t1 to t2, all green LEDs from t3 to t4, all blue LEDs from t5 to t6, and all infrared LEDs from t7 to t8. It lights up in time division without any. When the four color LEDs are turned on, all red LEDs are turned on again at the timing from t9 to t10, and the green, blue, and infrared LEDs are turned on in the same manner, and time-division lighting is performed in the same manner. repeat. The time from t1 to t8 is about one frame time of a normal color moving image, and the light emission amount of each color is less than a quarter of the time without time division, but the CIGS sensor is a normal CMOS as shown in FIG. Compared with the sensor, it has high sensitivity and broadband characteristics, so that even a short amount of light emission provides sufficient light source light.

図18のように、カラー・赤外モードにおいて可視光と赤外光を時分割でほぼ同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により広角に設定され、焦点深度が深くなるように設定されるとともに、そのピント位置もレンズ駆動部512の制御により可視光から赤外光をカバーするパンフォーカス状態となるよう設定される。このようにカラー・赤外モードは体内の状態を全体的に粗く観察するのに適している。 As shown in FIG. 18, in the color / infrared mode, when visible light and infrared light are emitted almost simultaneously in a time division manner, the angle of view of the imaging lens 508 in FIG. 13 is set to a wide angle by the control of the lens driving unit 512, The depth of focus is set to be deep, and the focus position is also set to be in a pan-focus state that covers visible light to infrared light under the control of the lens driving unit 512. As described above, the color / infrared mode is suitable for observing the overall state of the body roughly.

図18の光電変換部のタイミングチャートから明らかなように、光電変換部は赤LEDの発光開始直後から赤の露光を開始して電荷蓄積を行う。電荷蓄積時間は赤LEDの発光終了直前に設定されているのでここで露光を終了し、電荷の読出しを行う。さらに電荷の読出しが終了すると残留電荷の掃捨を行う。そして電荷の掃捨が終了すると次の緑の露光を開始する。なお図18から明らかなように緑の露光直前に緑ダイオードの発光が開始している。緑の露光についても電荷蓄積時間が終了の後、電荷の読出および残留電化の掃捨が後続している。以下同様にして、青LEDの発光および赤外LEDの発光にそれぞれ同期して、青および赤外の電荷蓄積、電荷読出、および残留電荷掃捨が行われる。そしてこれらの動作が循環する。なお、上記では、光電変換部の機能を各色について説明したが、光電変換部自体に各色を分離して光電変換する機能があるわけではなく、光電変換部自体は単に電荷蓄積、電荷読出、および残留電荷掃捨の同じ動作を繰り返しているだけである。読み出された電荷量が各色の情報を持つのは専ら電荷蓄積の際の光源色に依存する。 As is clear from the timing chart of the photoelectric conversion unit in FIG. 18, the photoelectric conversion unit starts red exposure immediately after the start of light emission of the red LED and accumulates charges. Since the charge accumulation time is set immediately before the end of light emission of the red LED, the exposure ends here and the charge is read out. Further, when the charge reading is completed, the residual charge is swept away. When the charge sweeping is completed, the next green exposure is started. As is apparent from FIG. 18, light emission of the green diode starts immediately before the green exposure. Also for the green exposure, after the charge accumulation time is over, the charge read-out and the residual charge sweep out follow. Similarly, blue and infrared charge accumulation, charge readout, and residual charge sweeping are performed in synchronization with the light emission of the blue LED and the light emission of the infrared LED, respectively. These operations circulate. In the above description, the function of the photoelectric conversion unit has been described for each color. However, the photoelectric conversion unit itself does not have a function of performing photoelectric conversion by separating each color, and the photoelectric conversion unit itself simply performs charge accumulation, charge read, and It only repeats the same operation of residual charge sweeping. The read charge amount has information on each color depending solely on the light source color at the time of charge accumulation.

図18のAD変換部のタイミングチャートから明らかなように、光電変換部は各色の電荷読出直後からAD変換を開始する。例えば、赤のAD変換は赤の電荷読出完了直後に開始される。そして次の緑の露光中の時間帯も利用し、これと並行して赤のAD変換を継続する。図18の無線通信部のタイミングチャート(A)から明らかなように、無線通信部は、各色の光電変換完了直後からその結果の色のデジタル信号の通信を開始可能である。例えば、赤のデジタル信号の通信は赤のAD変換終了直後に開始される。そして次の緑のAD変換の時間帯も利用し、これと並行して赤の通信を継続する。以下同様にして緑、青、赤外についてAD変換および通信が行われる。 As is clear from the timing chart of the AD conversion unit in FIG. 18, the photoelectric conversion unit starts AD conversion immediately after the charge reading of each color. For example, red AD conversion is started immediately after completion of red charge reading. Then, using the time zone during the next green exposure, the red AD conversion is continued in parallel with this. As is clear from the timing chart (A) of the wireless communication unit in FIG. 18, the wireless communication unit can start communication of digital signals of the resulting color immediately after the completion of photoelectric conversion of each color. For example, communication of a red digital signal is started immediately after the end of red AD conversion. The next green AD conversion time zone is also used, and in parallel with this, red communication is continued. Similarly, AD conversion and communication are performed for green, blue, and infrared.

なお、通信に関しては、カプセル内視鏡502と体外モニタ504との関係によっては、AD変換直後に成功裏に実施することができない場合も考えられる。このような場合は、図18の無線通信部のタイミングチャート(B)のように通信環境が充分となったタイミングで通信を実行する。例えば、IRデータの送信592はタイミングチャート(A)に比べて遅く実行されており、次のRデータの直前で実行されている。また、Gデータの送信594およびBデータの送信596も遅れて実行されているが、これらの通信時間の調整は、図13の画像バッファ526の容量が満杯となってFIFOに破綻を来たさない限り可能である。 Regarding communication, depending on the relationship between the capsule endoscope 502 and the extracorporeal monitor 504, there may be a case where the communication cannot be performed successfully immediately after AD conversion. In such a case, communication is executed at the timing when the communication environment becomes sufficient as shown in the timing chart (B) of the wireless communication unit in FIG. For example, IR data transmission 592 is executed later than the timing chart (A), and is executed immediately before the next R data. The G data transmission 594 and the B data transmission 596 are also executed with a delay. However, the adjustment of the communication time causes the FIFO to fail because the capacity of the image buffer 526 in FIG. 13 is full. It is possible as long as there is not.

図19は、図18で示したカラー・赤外モードにおける第3実施例のカプセル内視鏡502の動作での各色LEDの発光タイミングとカラー画像作成の関係を示すタイミングチャートである。図19に示すように、t1で開始される赤LEDの発光に基づく赤画像、t3で開始される緑LEDの発光に基づく緑画像、およびt5で開始される青LEDの発光に基づく青画像によって、F1で示す1フレームのカラー画像が作成される。厳密に言えば各色の発光に時間差があるので各色の画像は同一時間のものではないが、時間差は僅少なので高速で動く被写体でない限りこのような時分割による各色画像の取得でも問題はない。同様にして、t9で開始される赤LEDの発光に基づく赤画像、t11で開始される緑LEDの発光に基づく緑画像、およびt13で開始される青LEDの発光に基づく青画像によって、F2で示す1フレームのカラー画像が作成される。以下同様にして1フレームのカラー画像が作成され、個々のカラー動画は静止画としても記録できるとともに、これらを繋げてカラー動画としても記録できる。なお、これらのカラー処理は、図13に示した体外モニタ504の画像処理部544で行われる。また、図18の無線通信部のタイミングチャート(B)で示したように体外モニタ504による各色データの受信は必ずしも等間隔ではないが、画像取得タイミングは各色LEDの発光タイミングによって決まるので図19の関係が成り立つ。 FIG. 19 is a timing chart showing the relationship between the light emission timing of each color LED and the color image creation in the operation of the capsule endoscope 502 of the third embodiment in the color / infrared mode shown in FIG. As shown in FIG. 19, a red image based on red LED emission starting at t1, a green image based on green LED emission starting at t3, and a blue image based on blue LED emission starting at t5. , F1 is displayed as a color image. Strictly speaking, since there is a time difference in light emission of each color, the images of each color are not of the same time. Similarly, a red image based on red LED emission starting at t9, a green image based on green LED emission starting at t11, and a blue image based on blue LED emission starting at t13, at F2. A one-frame color image shown is created. In the same manner, a color image of one frame is created, and each color moving image can be recorded as a still image, and can also be recorded as a color moving image by connecting them. Note that these color processes are performed by the image processing unit 544 of the extracorporeal monitor 504 shown in FIG. In addition, as shown in the timing chart (B) of the wireless communication unit in FIG. 18, the reception of each color data by the extracorporeal monitor 504 is not necessarily at regular intervals, but the image acquisition timing is determined by the light emission timing of each color LED. A relationship is established.

また、図19に示すように、t3で開始される緑LEDの発光に基づく緑画像、t5で開始される青LEDの発光に基づく青画像、およびにt9で開始される赤LEDの発光に基づく赤画像によってもRGB三色のデータが揃うので、これらによってI1で示す1フレームのカラー補間画像が作成される。同様にして、t5で開始される青LEDの発光に基づく青画像、t9で開始される赤LEDの発光に基づく赤画像、およびt11で開始される緑LEDの発光に基づく緑画像によって、I2で示す1フレームのカラー補間画像が作成される。これらの補間画像はRGBの各色が揃うまでに赤外LEDの発光が介在しており、RGBが揃うまでの時間が若干長くなるとともにRGBの発光も等間隔でないのでカラー画像としては画質が悪くなる。従って、あくまでスムーズな動画を得るための補間画像として採用される。 In addition, as shown in FIG. 19, based on the green image based on the green LED emission starting at t3, the blue image based on the blue LED emission starting at t5, and the red LED emission starting at t9. Since the red image also contains RGB three-color data, a one-frame color interpolated image indicated by I1 is created. Similarly, with a blue image based on blue LED emission starting at t5, a red image based on red LED emission starting at t9, and a green image based on green LED emission starting at t11, I2 A one-frame color interpolated image shown is created. In these interpolated images, the emission of infrared LEDs is intervened until the RGB colors are aligned, and the time until RGB is aligned becomes slightly longer, and the RGB emissions are not equally spaced, so the image quality of the color image is poor. . Therefore, it is adopted as an interpolation image for obtaining a smooth moving image.

一方、赤外画像については、図19に示すように、t7で開始される赤外LEDの発光に基づく画像IR1、t15で開始される赤外LEDの発光に基づく画像IR2等がそれぞれ静止画として記録できるとともに、これらを繋げてカラー動画としても記録できる。カラー・赤外モードでは上記のようにカラー画像と赤外画像が並行して取得できるので、両画像を並行して内視鏡診断にもといることができるとともに、両画像を合成することも可能となる。また、静止画として量画像を合成する際、赤外画像の取得時間がカラー補間画像の取得時間帯の中に含まれているので、カラー補間画像を赤外画像とを合成のために採用することも可能である。具体的には、カラー補間画像I2およびI2の取得時間帯が共に赤外画像IR1の取得時間を含んでいるので、カラー補間画像I1およびI2またなその平均を赤外画像IR1と合成することが可能である。 On the other hand, as shown in FIG. 19, for the infrared image, an image IR1 based on the emission of the infrared LED starting at t7, an image IR2 based on the emission of the infrared LED starting at t15, and the like are still images. It can be recorded, and can also be recorded as a color video by connecting them. In color / infrared mode, color images and infrared images can be acquired in parallel as described above, so both images can be taken in parallel for endoscopic diagnosis, and both images can be combined. It becomes possible. Also, when a quantity image is synthesized as a still image, the acquisition time of the infrared image is included in the acquisition time zone of the color interpolation image, so the color interpolation image is used for the synthesis with the infrared image. It is also possible. Specifically, since the acquisition time zones of the color interpolation images I2 and I2 both include the acquisition time of the infrared image IR1, it is possible to synthesize the color interpolation images I1 and I2 or their average with the infrared image IR1. Is possible.

図20は、第3実施例のカプセル内視鏡502における精細カラーモードでの動作の各色LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。精細カラーモードでは、可視光のカラー画像のみの取得が行われ、赤外LEDは発光しない。図20から明らかなように、すべての赤LEDはt1からちt2、全ての緑LEDはt3からt4、すべての青LEDはt5からt6のタイミングで互いに重なることなく時分割でそれぞれ点灯する。そして、RGB3色のLEDの点灯が一巡すると、再び全ての赤LEDがt7からt8のタイミングで点灯し、以下同様にして緑、青、LEDが点灯して同様の循環で時分割点灯を繰り返す。この場合一回の循環に必要なt1からt6までの時間は図18のt1からt8よりも短くなり。動画が精細になる。図20の無線通信部(B)のタイミングチャートには、しばらく通信環境が整わなかった後、連続して通信が行われている様子を示す。 FIG. 20 shows the relationship between the light emission timing of each color LED, the operation timing of the photoelectric conversion unit, the operation timing of the AD trunk and the operation timing of the wireless communication unit in the fine color mode in the capsule endoscope 502 of the third embodiment. It is a timing chart which shows. In the fine color mode, only a visible color image is acquired, and the infrared LED does not emit light. As is clear from FIG. 20, all red LEDs are lit in a time-division manner without overlapping each other at the timings t1 to t2, all green LEDs are t3 to t4, and all blue LEDs are t5 to t6. Then, when the lighting of the RGB three-color LEDs is completed, all the red LEDs are turned on again at the timing from t7 to t8. Thereafter, the green, blue, and LEDs are turned on in the same manner, and time-division lighting is repeated in the same manner. In this case, the time from t1 to t6 required for one cycle is shorter than t1 to t8 in FIG. The video becomes fine. The timing chart of the wireless communication unit (B) in FIG. 20 shows a state in which communication is continuously performed after the communication environment has not been prepared for a while.

図20のように、精細カラーモードにおいて可視光のみを時分割でほぼ同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により可視光の焦点が撮像面に結像するよう設定される。これは赤、緑、青の焦点位置のずれは小さくまた撮像レンズの設計における収差補正でも対応できるので最適の焦点位置あわせが可能となるからである。このように精細カラーモードは体内の状態を詳細に高精細で観察するのに適している。 As shown in FIG. 20, in the fine color mode, when only visible light is emitted almost simultaneously in a time division manner, the angle of view of the imaging lens 508 in FIG. The focus position is also set so that the focus of visible light is imaged on the imaging surface under the control of the lens driving unit 512. This is because the focus position shifts of red, green, and blue are small and can be dealt with by aberration correction in the design of the imaging lens, so that optimum focus position adjustment is possible. Thus, the fine color mode is suitable for observing the state of the body in detail with high definition.

図21は、図20で示した精細カラーモードにおける第3実施例のカプセル内視鏡502の動作での各色LEDの発光タイミングとカラー画像作成の関係を示すタイミングチャートである。図21に示すように、t1で開始される赤LEDの発光に基づく赤画像、t3で開始される緑LEDの発光に基づく緑画像、およびt5で開始される青LEDの発光に基づく青画像によって、F1で示す1フレームのカラー画像が作成される。次に、t3で開始される緑LEDの発光に基づく緑画像、t5で開始される青LEDの発光に基づく青画像、およびにt7で開始される赤LEDの発光に基づく赤画像によってF2で示す1フレームのカラー画像が作成される。同様にt5で開始される青LEDの発光に基づく青画像、t7で開始される赤LEDの発光に基づく赤画像、およびt9で開始される緑LEDの発光に基づく緑画像によってF3で示す1フレームのカラー画像が作成される。以下同様にしてF4で示す1フレームのカラー画像以下が作成されていく。このように、精細カラーモードでは各色のLEDが新たに発光する毎に輪番で新たに1フレームのカラー画像が作成されるのでスムーズな精細動画の記録が可能となる。 FIG. 21 is a timing chart showing the relationship between the light emission timing of each color LED and the color image creation in the operation of the capsule endoscope 502 of the third embodiment in the fine color mode shown in FIG. As shown in FIG. 21, a red image based on red LED emission starting at t1, a green image based on green LED emission starting at t3, and a blue image based on blue LED emission starting at t5. , F1 is displayed as a color image. Next, indicated by F2 by a green image based on the green LED emission starting at t3, a blue image based on the blue LED emission starting at t5, and a red image based on the red LED emission starting at t7. A color image of one frame is created. Similarly, one frame indicated by F3 by a blue image based on blue LED emission starting at t5, a red image based on red LED emission starting at t7, and a green image based on green LED emission starting at t9. A color image is created. In the same manner, a color image of one frame or less indicated by F4 is created. In this manner, in the fine color mode, a new one-frame color image is created every time the LED of each color emits light, so that smooth fine moving images can be recorded.

図22は、第3実施例のカプセル内視鏡502における赤外モードでの動作の赤外LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。赤外カラーモードでは、赤外画像のみの取得が行われ、赤外LED以外のLEDは発光しない。図22から明らかなように、すべての赤外LEDはt1からちt2、t3からt4のごとく光電変換部における毎回の露光の都度に発光する。そしてこれに対応して毎回1フレームの赤外画像が作成される。これによって、スムーズな赤外動画の記録が可能となる。 FIG. 22 shows the infrared LED emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation timing in the infrared mode of the capsule endoscope 502 of the third embodiment. It is a timing chart which shows a relationship. In the infrared color mode, only an infrared image is acquired, and LEDs other than the infrared LED do not emit light. As is clear from FIG. 22, all the infrared LEDs emit light at every exposure in the photoelectric conversion unit from t1 to t2 and from t3 to t4. In response to this, an infrared image of one frame is created every time. This makes it possible to record a smooth infrared moving image.

図22のように、赤外モードにおいて赤外光のみを発光させる場合も、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により赤外光の焦点が撮像面に結像するよう設定される。このように赤外モードも体内の状態を詳細に高精細で観察するのに適している。 As shown in FIG. 22, when only infrared light is emitted in the infrared mode, the angle of view of the imaging lens 508 in FIG. The focus of the infrared light is set to form an image on the imaging surface by the control of the lens driving unit 512. Thus, the infrared mode is also suitable for observing the state of the body in detail with high definition.

図23は、図13の第3実施例における内視鏡制御部520の動作のフローチャートである。カプセル内視鏡502に電池532がセットされるとフローがスタートし、ステップS162で、カラー・赤外モードが初期設定される。そしてこれに対応し、ステップS154で撮像レンズ508が広角およびパンフォーカス状態に設定される。次いでステップS166では、赤、緑、青および赤外の全てのLEDが所定の順所で順次輪番で発光するよう設定される。そしてステップS168でこれらの設定が行われている状態であることを外部送信し、体外モニタ504に報告する。 FIG. 23 is a flowchart of the operation of the endoscope control unit 520 in the third embodiment of FIG. When the battery 532 is set in the capsule endoscope 502, the flow starts. In step S162, the color / infrared mode is initialized. In response to this, in step S154, the imaging lens 508 is set to the wide-angle and pan-focus state. Next, in step S166, all red, green, blue and infrared LEDs are set to emit light sequentially in a predetermined order. In step S168, the fact that these settings have been made is externally transmitted and reported to the external monitor 504.

次にステップS170で撮像処理、ステップS172で送信処理をそれぞれ実行する。その詳細は後述する。送信処理が終わるとステップS174に進み、動作停止信号を体外モニタ504から受信しているかどうかチェックする。受信があれば直ちにフローを終了する。一方、停止信号の受信がなければステップS176に進み、モード変更信号を受信しているかどうかチェックする。そして受信があればステップS178に進み、変更されたモードがカラー・赤外モードかどうかチェックする。カラー・赤外モードであれば、ステップS164に戻り、レンズを広角およびパンフォーカス状態に設定して、以下既に説明したステップS166以下の動作に進む。 Next, an imaging process is performed in step S170, and a transmission process is performed in step S172. Details thereof will be described later. When the transmission process ends, the process proceeds to step S174, and it is checked whether an operation stop signal is received from the extracorporeal monitor 504. If there is reception, the flow is immediately terminated. On the other hand, if no stop signal has been received, the process proceeds to step S176 to check whether a mode change signal has been received. If there is reception, the process advances to step S178 to check whether the changed mode is the color / infrared mode. If it is in the color / infrared mode, the process returns to step S164, the lens is set to the wide angle and pan focus state, and the operation proceeds to the operation after step S166 already described.

一方、ステップS178で変更されたモードがカラー・赤外モードでなかったときはステップS180に進み、精細カラーモードかどうかチェックする。そして精細カラーモードであればステップS182でレンズの画角を狭角(望遠)にするとともに可視光フォーカス状態に設定するとともに、ステップS184で可視光のLEDのみが順次輪番で発光するよう設定する。そして、ステップS186でこれらの設定状態を外部に送信した後、ステップS170に戻る。 On the other hand, if the mode changed in step S178 is not the color / infrared mode, the process proceeds to step S180 to check whether the mode is the fine color mode. In the fine color mode, in step S182, the angle of view of the lens is set to a narrow angle (telephoto) and set to the visible light focus state, and in step S184, only visible light LEDs are set to sequentially emit light with a rotation number. Then, after these setting states are transmitted to the outside in step S186, the process returns to step S170.

また、ステップS180で変更されたモードが精細カラーモードでなかったときは、変更されたモードが赤外モードであることを意味するからステップS188に移行し、レンズの画角を狭角(望遠)にするとともに赤外光フォーカス状態に設定する。さらにステップS190で赤外LEDのみが発光するよう設定する。そして、ステップS186に移行し、これらの設定状態を外部に送信した後、ステップS170に戻る。 If the mode changed in step S180 is not the fine color mode, it means that the changed mode is the infrared mode, so that the process proceeds to step S188, and the angle of view of the lens is narrowed (telephoto). And set the infrared light focus state. Furthermore, it sets so that only infrared LED may light-emit in step S190. Then, the process proceeds to step S186, and after these setting states are transmitted to the outside, the process returns to step S170.

図24は、図23のステップS170における撮像処理の詳細を示すフローチャートである。フローがスタートすると、ステップS192でモードの選択または変更があったかどうかチェックする。モード選択または変更がなかったときは、ステップS194に進み、露光時間が完了しているかどうかチェックする。そして完了を検出すればステップS196に進み、蓄積電荷の読出し開始処理を行う。さらにステップS198でLEDの発光停止を指示する。さらにステップS200で蓄積電荷読出しが完了したかどうかをチェックし、未完ならステップS200を繰り返しながら完了を待つ。 FIG. 24 is a flowchart showing details of the imaging process in step S170 of FIG. When the flow starts, it is checked in step S192 whether a mode has been selected or changed. If no mode has been selected or changed, the process proceeds to step S194 to check whether the exposure time has been completed. If the completion is detected, the process proceeds to step S196, where the stored charge readout start process is performed. Further, in step S198, an instruction to stop LED emission is given. Further, in step S200, it is checked whether or not the accumulated charge reading is completed. If it is not completed, the completion is waited while repeating step S200.

ステップS200で読出し完了が検知されるとステップS206に進み残留電荷の掃捨て開始処理を行ってステップS208のLED選択処理に移行する。これは次に発光すべきLEDを選択する処理であるがその詳細は後述する。さらにステップS210ではステップS208で選択されたLEDの発光開始を指示する。次にステップS212では蓄積電荷の掃捨てが完了したかどうかをチェックし、未完ならステップS212を繰り返しながら完了を待つ。 When the completion of reading is detected in step S200, the process proceeds to step S206, a residual charge sweeping start process is performed, and the process proceeds to the LED selection process in step S208. This is a process of selecting the next LED to emit light, the details of which will be described later. Further, in step S210, the start of light emission of the LED selected in step S208 is instructed. Next, in step S212, it is checked whether or not the stored charge has been completely purged.

ステップS212で蓄積電荷の掃捨て完了が検知されるとステップS214に移行し、露光を開始するとともにステップS216で露光時間のカウントを開始し、フローを終了する。一方、ステップS194で露光時間が完了していなければ直ちにフローを終了する。また、ステップS192でモードの選択または変更が検出されるとステップS218に移行し、撮像処理のイニシャライズを行ってステップS208のLED選択処理に進む。 When it is detected in step S212 that the accumulated charge has been completely removed, the process proceeds to step S214 to start exposure, and in step S216, the exposure time starts to be counted, and the flow ends. On the other hand, if the exposure time is not completed in step S194, the flow is immediately terminated. If selection or change of the mode is detected in step S192, the process proceeds to step S218, the imaging process is initialized, and the process proceeds to the LED selection process in step S208.

図25は、図24のステップS208におけるLED選択処理の詳細を示すフローチャートである。フローがスタートすると、ステップS222で赤外モードであるかどうかチェックする。該当しなければカラー・赤外モードまたは精細カラーモードであることを意味する。この場合はステップS224に進み、図24のステップS218によって撮像処理のイニシャライズが行われたかどうかチェックする。これも該当しなければステップS226に進み、前回に選択されたLED記憶を読み出す。そしてステップS228で読み出された記憶に基づき前回発光したのが赤LEDであったかどうかチェックする。該当しなければ、さらにステップS230で前回したのが緑LEDであったかどうかチェックする。 FIG. 25 is a flowchart showing details of the LED selection processing in step S208 of FIG. When the flow starts, it is checked whether or not the infrared mode is set in step S222. If not applicable, it means color / infrared mode or fine color mode. In this case, the process proceeds to step S224, and it is checked whether or not the imaging process has been initialized in step S218 of FIG. If this is not the case, the process advances to step S226 to read the previously selected LED memory. Then, based on the memory read in step S228, it is checked whether or not the last light emission was a red LED. If not, it is further checked in step S230 whether the last time it was a green LED.

ステップS230で前回発光が緑LEDでなかったときはステップS232に進み、精細カラーモードであるかどうかチェックする。該当する場合は、赤、緑および青のLEDが輪番で発光していることになる。そしてこの場合、前回発発光が赤でも緑でもなければ青であったことを意味するからステップS232からステップS234に進み、次の順番に当たる赤LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。 If it is determined in step S230 that the previous light emission was not a green LED, the process proceeds to step S232 to check whether the color mode is the fine color mode. If this is the case, the red, green, and blue LEDs are emitting light on the wheel. In this case, if the previous light emission is neither red nor green, it means that the light was blue, the process proceeds from step S232 to step S234, and the red LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends.

一方、ステップS232で精細カラーモードであることが検知されない場合はカラー・赤外モードであることを意味する。この場合は、赤、緑、青および赤外のLEDが輪番で発光していることになる。そしてこの場合、前回発発光が赤でも緑でもなければ青であったことを意味するからステップS232からステップS238に進み、次の順番に当たる赤外LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。 On the other hand, if the fine color mode is not detected in step S232, it means the color / infrared mode. In this case, red, green, blue, and infrared LEDs emit light in a ring. In this case, it means that if the previous light emission is neither red nor green, it means that the light was blue, so the process proceeds from step S232 to step S238, and the infrared LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends.

また、ステップS228で前回発光したのが赤LEDであったときはステップS242に進み、次の順番にあたる緑LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。さらに、ステップS222で赤外モードであったときはステップS244に進み、赤外LEDを選択する。そして赤外モードの場合は選択されるのは常に赤外LEDであるから選択結果の記憶は特に行う必要がなく直ちにフローを終了する。なお、ステップS224で撮像処理のイニシャライズが行われていたときはステップS242に進み最初の発光LEDとして緑LEDを選択する。 If it is the red LED that previously emitted light in step S228, the process proceeds to step S242, and the green LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends. Further, when the infrared mode is set in step S222, the process proceeds to step S244, and an infrared LED is selected. In the infrared mode, it is always the infrared LED that is selected, so that the selection result need not be stored in particular and the flow is immediately terminated. If the imaging process has been initialized in step S224, the process proceeds to step S242 to select the green LED as the first light emitting LED.

図26は、図23のステップS172における送信処理の詳細を示すフローチャートである。フローがスタートすると、ステップS252でデータの送信中かどうかのチェックを行う。送信中でなければステップS254に進み、送信に成功したデータがあるかどうかチェックする。そして該当するものがあればステップS256でこれを画像バッファより消去してステップS258に移行する。一方、ステップS254で送信成功データがなければ直接ステップS258に移行する。 FIG. 26 is a flowchart showing details of the transmission processing in step S172 of FIG. When the flow starts, it is checked in step S252 whether data is being transmitted. If transmission is not in progress, the process advances to step S254 to check whether there is data that has been successfully transmitted. If there is a corresponding item, it is erased from the image buffer in step S256, and the process proceeds to step S258. On the other hand, if there is no successful transmission data in step S254, the process directly proceeds to step S258.

ステップS258では、AD変換が完了したかどうかチェックし、該当すればAD変換したデータを画像バッファに格納してステップS262に移行する。一方、AD変換が終了していなければ直接ステップS262に移行する。ステップS262では画像バッファに格納されているデータがあるかどうかチェックし、データがあればステップS264で通信状態がOKかどうかチェックする。そしてOKであればステップS266で画像バッファからFIFO(先入れ先出し)でデータを読出し、ステップS268で読み出したデータの送信開始を指示してフローを終了する。なお、ステップS252でデータ送信中であったとき、ステップS262で画像バッファにデータの格納がなかったとき、またはステップS264で通信状態がOKでなかったときはそれぞれ直ちにフローを終了する。 In step S258, it is checked whether or not AD conversion has been completed. If applicable, the AD converted data is stored in the image buffer, and the process proceeds to step S262. On the other hand, if AD conversion is not completed, the process directly proceeds to step S262. In step S262, it is checked whether there is data stored in the image buffer. If there is data, it is checked in step S264 whether the communication state is OK. If it is OK, data is read from the image buffer by FIFO (first-in first-out) in step S266, the transmission of the read data is instructed in step S268, and the flow is terminated. It should be noted that when the data is being transmitted in step S252, when no data is stored in the image buffer in step S262, or when the communication state is not OK in step S264, the flow is immediately terminated.

図27は、図13の第3実施例における体外モニタ504のモニタ制御部540の動作を示すフローチャートであり、カプセル内視鏡502との通信開始でフローがスタートする。フローがスタートするとステップS272で画像データの新着の有無をチェックする。新着データがあればステップS274に進み、新着データが完全かどうかチェックする。そして完全であればステップS276に進んでこれを画像バッファ538に格納するよう支持してステップS278に移行する。なお、ステップS272でデータの新着がないか、またはステップS274で新着データが完全でなかったときはいずれもステップS272に戻る。 FIG. 27 is a flowchart showing the operation of the monitor control unit 540 of the extracorporeal monitor 504 in the third embodiment of FIG. 13, and the flow starts when communication with the capsule endoscope 502 is started. When the flow starts, it is checked in step S272 whether there is a new arrival of image data. If there is new arrival data, the process proceeds to step S274 to check whether the new arrival data is complete. If it is complete, the process proceeds to step S276, where it is stored in the image buffer 538, and the process proceeds to step S278. If there is no new arrival of data in step S272 or new arrival data is not complete in step S274, the process returns to step S272.

ステップS278では、赤外モードであるかどうかチェックし、該当しなければステップS280でカラー・赤外モードであるかどうかチェックする。そしてカラー・赤外モードであればステップS282に進み、新着データが赤外画像データであるかどうかチェックする。該当しなければ赤、緑、青のいずれかの画像データであることを意味するからステップS284に進み、これらのデータから赤外画像の補間補助画像を作成するよう指示してステップS286に移行する。ステップS284の指示は、赤外のスムーズな動画を得るために赤外画像データに基づいて補間を行う際、赤外画像の間のタイミングで得られる可視光画像データの情報を補助的に利用するための指示である。 In step S278, it is checked whether the infrared mode is selected. If not, the color / infrared mode is checked in step S280. If it is the color / infrared mode, the process advances to step S282 to check whether the newly arrived data is infrared image data. If not, it means that the image data is one of red, green, and blue, so the process proceeds to step S284, and an instruction to create an interpolation auxiliary image of an infrared image is given from these data, and the process proceeds to step S286. . The instruction in step S284 uses information of visible light image data obtained at a timing between infrared images as an auxiliary when performing interpolation based on infrared image data in order to obtain a smooth infrared moving image. It is an instruction for.

ステップS286では、新逆データが青画像データであるかどうかチェックする。そして該当しなければ赤画像データまたは緑画像データであることを意味するからステップS290に進み、新着データ直前の可視2色のデータが格納されているかどうかチェックする。そして格納されていれば、新着データとともに赤、緑、青の3色が揃うからステップS292に進み、保管カラー画像を作成する指示をしてステップS272に戻る。ステップS292の指示によって作成される画像は、図19のカラー補間画像I1またはI2に相当する。 In step S286, it is checked whether the new inverse data is blue image data. If it does not correspond, it means red image data or green image data, so the process proceeds to step S290, and it is checked whether or not the visible two-color data immediately before the new arrival data is stored. If it is stored, red, green, and blue are available together with newly arrived data, so the process proceeds to step S292, and an instruction to create a storage color image is issued, and the process returns to step S272. The image created by the instruction in step S292 corresponds to the color interpolation image I1 or I2 in FIG.

ステップS278で赤外モードであったときは新着データは赤外画像データであるからステップS294に移行し、赤外画像の作成を指示してステップS272に戻る。また、ステップS282で新着データが赤外画像データであったときもステップS294に移行する。一方、ステップS286で新着データが青画像データであったときはステップS296に進み、直前の2色(この場合は赤および緑)の画像データが画像バッファに格納されているかどうかチェックする。そしてこれらの格納があれば連続する3色が揃うのでステップS298に進み、カラー画像作成の指示を行ってステップS272に戻る。この指示によって作成される画像は、図19のカラー画像F1またはF2に該当する。 When it is the infrared mode in step S278, the newly arrived data is infrared image data, so the process proceeds to step S294, the creation of the infrared image is instructed, and the process returns to step S272. Also, when the newly arrived data is infrared image data in step S282, the process proceeds to step S294. On the other hand, if the newly arrived data is blue image data in step S286, the process proceeds to step S296, and it is checked whether the image data of the immediately preceding two colors (in this case, red and green) are stored in the image buffer. If these are stored, three consecutive colors are prepared, so the process proceeds to step S298, where an instruction to create a color image is issued, and the process returns to step S272. The image created by this instruction corresponds to the color image F1 or F2 in FIG.

また、ステップS280でカラー・赤外モードでなかったときは精細カラーモードであることを意味するのでやはりステップS296に移行し、直前の可視2色データが格納されているかどうかのチェックに入り、直前2色があればステップS298のカラー画像作成を指示する。この指示によって作成される画像は、図21のカラー画像F1、F2、F3等に該当する。なお、ステップS290またはステップS296で直前の可視2色データの格納がなかったときは直ちにステップS272に戻る。 If the color / infrared mode is not set in step S280, it means that the mode is the fine color mode. Therefore, the process proceeds to step S296, where it is checked whether the previous visible two-color data is stored. If there are two colors, an instruction to create a color image in step S298 is given. Images created by this instruction correspond to the color images F1, F2, F3, etc. in FIG. If no previous visible two-color data is stored in step S290 or step S296, the process immediately returns to step S272.

図28は、本発明の第4実施例の動作タイミングの関係を示すタイミングチャートである。第4実施例は基本的には図13から図17に示す内視鏡システムと共通の構成なので、以下の説明では、図13のブロック図の符号を適宜用いて説明する。第4実施例が第3実施例と異なるのは、CIGS撮像センサの構成およびLEDの発光タイミングである。すなわち、第3実施例のCIGSセンサ510はカラーフィルタを有さず、色の分解はLEDの時分割発光によっていたが、第4実施例のCIGS撮像センサ510は、図7から図10に示すようなカラーフィルタを有し、第1実施例および第2実施例と同様にしてCIGS撮像センサ自体で色分解を行う。そして、LEDの発光は時分割ではなく全色同時に行われる。 FIG. 28 is a timing chart showing the relationship of the operation timing of the fourth embodiment of the present invention. Since the fourth embodiment is basically configured in common with the endoscope system shown in FIGS. 13 to 17, the following description will be made using the reference numerals in the block diagram of FIG. 13 as appropriate. The fourth embodiment differs from the third embodiment in the configuration of the CIGS imaging sensor and the light emission timing of the LEDs. That is, the CIGS sensor 510 of the third embodiment does not have a color filter, and the color separation is based on the time-division light emission of the LED, but the CIGS imaging sensor 510 of the fourth embodiment is as shown in FIGS. The CIGS imaging sensor itself performs color separation in the same manner as in the first and second embodiments. The light emission of the LEDs is not performed in a time division manner, but is performed simultaneously for all colors.

図28は、このような第4実施例のカプセル内視鏡502におけるカラー・赤外モードでの動作のLEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。先に述べたように、すべての赤LED、全ての緑LED、すべての青LEDおよびすべての赤外LEDは、光電変換部の露光タイミングにおいてすべて同時に発光する。なお、各LEDは、図28のように点滅発光するかわりに連続発光しても差し支えない。なお、図28のカラー・赤外モードにおいては、撮像レンズ508の画角はレンズ駆動部512の制御により広角に設定され、焦点深度が深くなるように設定されるとともに、そのピント位置もレンズ駆動部512の制御により可視光から赤外光をカバーするパンフォーカス状態となるよう設定される。このような撮像レンズ制御は、図18のカラー・赤外モードの場合と共通である。 FIG. 28 shows the LED light emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation in the color / infrared mode in the capsule endoscope 502 of the fourth embodiment. It is a timing chart which shows the relationship of operation timing. As described above, all the red LEDs, all the green LEDs, all the blue LEDs, and all the infrared LEDs all emit light simultaneously at the exposure timing of the photoelectric conversion unit. Each LED may emit light continuously instead of blinking as shown in FIG. In the color / infrared mode of FIG. 28, the angle of view of the imaging lens 508 is set to a wide angle by the control of the lens driving unit 512, and the focal depth is set to be deep, and the focus position is also lens driven. Under the control of the unit 512, the pan focus state is set so as to cover visible light to infrared light. Such imaging lens control is common to the color / infrared mode of FIG.

図29は、第4実施例のカプセル内視鏡502における精細カラーモードでの動作のLEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。図29に明らかなように、すべての赤LED、全ての緑LEDおよびすべての青LEDが、光電変換部の露光タイミングにおいてすべて同時に発光する。なお、赤外LEDは発光しない。図29のように、精細カラーモードにおいて可視光のみを同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により可視光の焦点が撮像面に結像するよう設定される。このような撮像レンズ制御は、図20の精細カラーモードの場合と共通である。 FIG. 29 shows the relationship among the LED light emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation timing in the fine color mode operation in the capsule endoscope 502 of the fourth embodiment. It is a timing chart which shows. As is clear from FIG. 29, all red LEDs, all green LEDs, and all blue LEDs all emit light simultaneously at the exposure timing of the photoelectric conversion unit. The infrared LED does not emit light. As shown in FIG. 29, when only visible light is emitted simultaneously in the fine color mode, the angle of view of the imaging lens 508 in FIG. The focus of visible light is set to form an image on the imaging surface under the control of the driving unit 512. Such imaging lens control is common to the fine color mode in FIG.

第4実施例における赤外モードのタイミングチャートは、第3実施例における図22と共通である。また、赤外モードにおける撮像レンズ508の画角がレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により赤外光の焦点が撮像面に結像するよう設定される点についても、図22の赤外モードと共通である。第4実施例におけるカラー・赤外モードが体内の状態を全体的に粗く観察するのに適し、一方、精細カラーモードおよび赤外モードが体内の状態を詳細に高精細で観察するのに適している点についても第3実施例と共通である。 The timing chart of the infrared mode in the fourth embodiment is the same as that in FIG. 22 in the third embodiment. In addition, the angle of view of the imaging lens 508 in the infrared mode is set to a narrow angle (telephoto) by the control of the lens driving unit 512, and the focus position of the imaging lens 508 is also controlled by the lens driving unit 512 to focus the infrared light on the imaging surface. The point set to image is also common to the infrared mode in FIG. The color / infrared mode in the fourth embodiment is suitable for observing the overall state of the body roughly, while the fine color mode and infrared mode are suitable for observing the state of the body in detail with high definition. This is also the same as the third embodiment.

なお、上記第3実施例および第4実施例における内視鏡システムはカプセル内視鏡と体外モニタを有するものとして構成したが、本発明の実施はこれに限るものではない。例えば、体内と体外をチューブで結んだ通常の内視鏡として構成することも可能である。この場合、図13のアンテナ530および546による無線通信をチューブ内のケーブルによる有線通信とするとともにこのチューブ内に公知の通気管や導水管およびチューブ屈曲メカなどを設ける。また、体内と体外の間の画像情報伝達を電気信号で行うのに代え、ファイバーなどによる光学手段により体内で取得した画像を体外に取り出すようにしてもよい。この場合、CIGS画像センサは体外に設けられることになる。また、光源についても発光部を体外に設け、ライトガイドでこれを体内に導くことも可能である。このような構成では、図14から図17の光源配置は、発光部分の配置ではなく、光源光射出部の配置として理解するものとする。さらに、ライトガイドを用いる場合には、必ずしも光源光射出部を各色別にする必要はなく、各色発光部からの光を共通のライトガイドを用いて体内に導き共通の射出口から照射するようにしてもよい。また、上記第3実施例および第4実施例において示した本発明の種々の特徴の実施は、内視鏡に限らず、種々の撮像センサを活用した撮像・観察・記録機器に適宜活用することも可能である。 In addition, although the endoscope system in the said 3rd Example and 4th Example was comprised as what has a capsule endoscope and an external monitor, implementation of this invention is not restricted to this. For example, it can be configured as a normal endoscope in which the inside and outside of the body are connected by a tube. In this case, wireless communication by the antennas 530 and 546 in FIG. 13 is wired communication using a cable in the tube, and a known vent pipe, water conduit, tube bending mechanism, and the like are provided in the tube. Further, instead of performing image information transmission between the inside and outside of the body using an electrical signal, an image acquired inside the body may be taken out of the body by optical means such as a fiber. In this case, the CIGS image sensor is provided outside the body. Further, the light source can also be provided outside the body and guided to the inside by a light guide. In such a configuration, the light source arrangement in FIGS. 14 to 17 is understood not as the arrangement of the light emitting portion but as the arrangement of the light source light emitting portions. Furthermore, when using a light guide, it is not always necessary to provide a light source light emitting portion for each color, and light from each color light emitting portion is guided into the body using a common light guide and is emitted from a common outlet. Also good. In addition, the implementation of the various features of the present invention shown in the third and fourth embodiments is not limited to an endoscope, but may be used as appropriate for imaging / observation / recording equipment using various imaging sensors. Is also possible.

図30は、本発明の第5実施例のブロック図であり、車両用監視装置を構成している。その車両監視機能は、衝突防止のための車両前後の車間距離の検知機能およびドライブレコーダとしての車両前後の画像撮影記録機能である。また検知された車間距離はドライブレコーダに記録されるとともに、画像撮影のためのフォーカス調整にも利用される。図30において、車両602は、ガソリンエンジン車または電気自動車またはガソリンエンジンとモータを併用するいわゆるハイブリッドタ車のいずれかとして構成される。 FIG. 30 is a block diagram of a fifth embodiment of the present invention, which constitutes a vehicle monitoring device. The vehicle monitoring function is a function for detecting the distance between vehicles before and after the vehicle for preventing a collision and a function for capturing and recording images before and after the vehicle as a drive recorder. The detected inter-vehicle distance is recorded in a drive recorder and also used for focus adjustment for image shooting. In FIG. 30, a vehicle 602 is configured as either a gasoline engine vehicle, an electric vehicle, or a so-called hybrid vehicle that uses a gasoline engine and a motor together.

車両602は、車両全体を制御するコンピュータからなる車両制御部604を有し、車両の運転者による操作に応じて、動力606およびブレーキ608などを有する車両機能部610を制御し車両602を走行させる。動力606はガソリンエンジンまたはモータまたはその両者を含むよう構成される。車両制御部604は、車両602の制御に必要なソフトウエアおよびデータを格納する記憶部を有する。また、車両制御部604は、車内出力部612を制御し、その画像出力部614によって車両の操作に必要によるGUI表示を行わせるとともに制御結果の表示を行わせる。また、音声出力部616によって運転者へのアナウンスなども行わせる。 The vehicle 602 includes a vehicle control unit 604 including a computer that controls the entire vehicle, and controls the vehicle function unit 610 having a power 606 and a brake 608 in accordance with an operation by a driver of the vehicle to cause the vehicle 602 to travel. . The power 606 is configured to include a gasoline engine and / or motor. The vehicle control unit 604 includes a storage unit that stores software and data necessary for controlling the vehicle 602. In addition, the vehicle control unit 604 controls the in-vehicle output unit 612 and causes the image output unit 614 to display a GUI display necessary for operation of the vehicle and display the control result. The voice output unit 616 also makes an announcement to the driver.

GPS部618は、GPSシステムに基づいて衛星および最寄の放送局より車両602の絶対位置情報である緯度、経度、および高度の情報を得て車両制御部604に送る。カーナビゲーション機能部620は、車両制御部604経由で得られるGPS部618からの絶対位置情報を処理し、地図上での車両602の位置を画像出力部614に表示させる。 The GPS unit 618 obtains latitude, longitude, and altitude information, which are absolute position information of the vehicle 602, from the satellite and the nearest broadcasting station based on the GPS system and sends the information to the vehicle control unit 604. The car navigation function unit 620 processes absolute position information from the GPS unit 618 obtained via the vehicle control unit 604 and causes the image output unit 614 to display the position of the vehicle 602 on the map.

次に車両用監視装置に関する構成を必要に応じ上記の構成とも関連づけて説明する。第5実施例は、車両の前方および後方の監視のためにほぼ同様の監視装置を備えている。そこで、まず、車両後方の監視装置について説明する。後方カメラ/センサ622は、撮像レンズ624およびCIGS撮像センサ626よりなるカメラおよびマイク628を備えており、車両602が走行状態にあるとき常時車両前方等の画像および周囲の音が入力される。 Next, the configuration relating to the vehicle monitoring device will be described in association with the above configuration as necessary. The fifth embodiment includes substantially the same monitoring device for monitoring the front and rear of the vehicle. First, a monitoring device behind the vehicle will be described. The rear camera / sensor 622 includes a camera and a microphone 628 including an imaging lens 624 and a CIGS imaging sensor 626. When the vehicle 602 is in a traveling state, an image such as the front of the vehicle and surrounding sounds are always input.

CIGS撮像センサ626は、基本的には、これまでの実施例において説明した図3のような特性を有し、図7から図10で説明したようなカラーフィルタ配列を有するものである。但し、そのカラーフィルタの分光透過率については実施例5特有の特徴を有し、赤透過フィルタ、青透過フィルタおよび緑透過フィルタおよびはそれぞれの狭い可視光領域の光を透過させるバンドパスフィルタとなっているとともに赤外光透過フィルタについては、ソーラーブラインドの狭い領域の赤外光を透過させるバンドパスフィルタとなっている。ソーラーブラインドとは地球に到達した太陽光のうち大気の吸収によって地表には到達しえないか到達しても微弱となる波長領域であり、例えば、1100nm近辺にこのような領域があることが知られている。実施例5では、図3のようなCIGSセンサの受光感度と上記のようなフィルタの組合せにより、赤、青、緑画素によって可視光画像を撮影するとともに、赤外画素によって太陽光の有無にかかわらない距離検知を行うものである。その詳細については後述する。 The CIGS imaging sensor 626 basically has the characteristics as shown in FIG. 3 described in the embodiments so far, and has the color filter array as described with reference to FIGS. However, the spectral transmittance of the color filter has the characteristics peculiar to the fifth embodiment, and the red transmission filter, the blue transmission filter, and the green transmission filter are band-pass filters that transmit light in each narrow visible light region. In addition, the infrared light transmission filter is a band-pass filter that transmits infrared light in a narrow area of the solar blind. A solar blind is a wavelength region of sunlight that reaches the earth that cannot reach the surface of the earth due to atmospheric absorption or is weak even if it reaches the surface. It has been. In the fifth embodiment, a visible light image is captured by red, blue, and green pixels and the presence or absence of sunlight by infrared pixels by combining the light receiving sensitivity of the CIGS sensor as shown in FIG. 3 and the filter as described above. There is no distance detection. Details thereof will be described later.

赤外ビームスキャナ630は、監視記録制御部632の制御下でソーラーブラインド領域の赤外光ビームを投射し、車両後方をスキャンする。投射された赤外光ビームが後続車両によって反射されると、これがCIGS撮像センサ626の赤外画素によって受光される。CIGSセンサ626の画像信号は、後方センサドライバ634を介して後方画像処理部636によって処理され、赤外ビームの反射位置が検知される。監視記録制御部632は、後方画像処理部636が検知した反射位置情報およびその時の赤外光ビーム投射角度から、この赤外光ビームを反射した後続車両までの車間距離を算出する。監視記録制御部632は算出した車間距離に応じて後方AF(オートフォーカス)制御部638を制御し、AF駆動部640により撮像レンズ624を駆動させて赤外光ビームを反射した後続車両に対し、可視光でのピントを合わせる。 The infrared beam scanner 630 projects an infrared light beam in the solar blind area under the control of the monitoring recording control unit 632 and scans the rear of the vehicle. When the projected infrared light beam is reflected by the following vehicle, it is received by the infrared pixels of the CIGS imaging sensor 626. The image signal of the CIGS sensor 626 is processed by the rear image processing unit 636 via the rear sensor driver 634, and the reflection position of the infrared beam is detected. The monitoring and recording control unit 632 calculates the inter-vehicle distance to the following vehicle that reflects the infrared light beam from the reflection position information detected by the rear image processing unit 636 and the infrared light beam projection angle at that time. The monitoring recording control unit 632 controls the rear AF (autofocus) control unit 638 according to the calculated inter-vehicle distance, and drives the imaging lens 624 by the AF driving unit 640 to reflect the infrared light beam with respect to the following vehicle. Focus on visible light.

一方、上記のようなピント合わせに基づきCIGS撮像センサ626の可視光画素により検知された可視光画像情報は、後方センサドライバ634を介して後方画像処理部636によって可視画像に処理され、監視記録制御部632を介してマイク628からの音声情報とともにFIFO(先入れ先出し記録部)642に入力される。FIFO(先入れ先出し記録部)642は、20秒程度の容量の不揮発性バッファメモリを備えており、後方画像処理部636およびマイク628から入力された画像および音の情報を先入れ先出しで記憶する。つまり最新20秒の情報が常時上書き記憶され続ける。 On the other hand, the visible light image information detected by the visible light pixel of the CIGS imaging sensor 626 based on the focus adjustment as described above is processed into a visible image by the rear image processing unit 636 via the rear sensor driver 634, and is monitored and recorded. The sound information from the microphone 628 is input to the FIFO (first-in first-out recording unit) 642 via the unit 632. The FIFO (first-in first-out recording unit) 642 includes a nonvolatile buffer memory having a capacity of about 20 seconds, and stores image and sound information input from the rear image processing unit 636 and the microphone 628 in a first-in first-out manner. That is, the latest 20-second information is always overwritten and stored.

そして、異常加速度検知部644が衝突などによる大きな加速度変化を検知したとき、または特に記録を指示する手動操作があったとき、FIFO642の記録が証拠として保全されることになる。具体的には、監視記録制御部632は、車両制御部604と連記しており、異常加速度検知部644による異常加速度検知または手動操作が車両制御部604を介して監視記録制御部632に伝えられると、後方画像処理部636およびマイク628が破壊されずに情報入力が継続していれば、その時点からさらに10秒程度のFIF0642への記憶を続ける。これによってFIFO642には、加速度変化の検知または手動操作の時点の前後それぞれ10秒程度の画像および音情報が最終的に保持される。そして、この前後10秒程度の画像および音情報は、不揮発性の記録部646に自動転送され証拠として保存される。これによってドライブレコーダ機能が達成される。なお、衝突等でドライブレコーダ機能の大半が破壊された場合でも、不揮発性のFIFO642さえ無事ならば、事故前20秒程度の記録が保全されることになる。 Then, when the abnormal acceleration detection unit 644 detects a large acceleration change due to a collision or the like, or particularly when a manual operation for instructing recording is performed, the recording of the FIFO 642 is maintained as evidence. Specifically, the monitoring record control unit 632 is connected to the vehicle control unit 604, and abnormal acceleration detection or manual operation by the abnormal acceleration detection unit 644 is transmitted to the monitoring record control unit 632 via the vehicle control unit 604. If the rear image processing unit 636 and the microphone 628 are continuously input without being destroyed, the storage in the FIFO 0642 is continued for about 10 seconds from that point. Thereby, the FIFO 642 finally holds image and sound information of about 10 seconds before and after the time of detection of acceleration change or manual operation. Then, the image and sound information of about 10 seconds before and after this is automatically transferred to the nonvolatile recording unit 646 and stored as evidence. This achieves the drive recorder function. Even if most of the drive recorder function is destroyed due to a collision or the like, if even the non-volatile FIFO 642 is safe, the recording of about 20 seconds before the accident is maintained.

なお、後続車両の画像を記録する場合、車間距離が短くなると後続車両のナンバーはもちろんのことフロントガラスを介して前部座席の運転者等の顔も鮮明に記録されることになる。これらの画像は、異常がない限り、FIFOで20秒後には捨てられることにはなるが、プライバシー問題への配慮のため、後続車両が所定以上に車間距離を詰めてきたことを監視記録制御部632が検出するとこれを車両制御部604に送る。車両制御部604はこれに応答して、後方車ドラレコ(ドライブレコーダ)告知表示部648により、車両602の後部窓に「後方撮影中です」などの告知表示を行わせる。これは、万一のトラブルを軽減するための事前告知となるとともに、撮影を嫌う後続車両に自発的に適切な車間距離をとらせることが期待できる。さらに、 When recording the image of the following vehicle, when the inter-vehicle distance is shortened, not only the number of the following vehicle but also the face of the driver of the front seat is clearly recorded through the windshield. These images will be discarded after 20 seconds in the FIFO unless there is an abnormality. However, in order to protect privacy, the monitoring and recording control unit confirms that the following vehicle has narrowed the inter-vehicle distance more than a predetermined distance. If 632 detects, this will be sent to the vehicle control part 604. In response to this, the vehicle control unit 604 causes the rear vehicle drive recorder (drive recorder) notification display unit 648 to display a notification such as “being rear-photographed” on the rear window of the vehicle 602. This is an advance notice for alleviating troubles, and it can be expected that a subsequent vehicle that dislikes photographing will voluntarily take an appropriate inter-vehicle distance. further,

第5実施例は、以上説明した後方監視装置と同様の監視装置を車両前方にも備えている。その構成は後方監視装置と共通なので、対応する構成については700番台で10の位および1の位が同じ番号を付し、特に必要ない限り説明は省略する。なお、前方監視装置の前方画像処理部736からの前方可視光画像情報は、後方可視光画像と同様にしてFIFO642および記録部646に記録される。このためFIFO642および記録部646はそれぞれ後方用および前方用の記録領域を有する。 In the fifth embodiment, a monitoring device similar to the rear monitoring device described above is provided in front of the vehicle. Since the configuration is the same as that of the rear monitoring device, the corresponding configuration is numbered in the 700s with the same number at the 10's and 1's, and the description is omitted unless particularly necessary. Note that the front visible light image information from the front image processing unit 736 of the front monitoring device is recorded in the FIFO 642 and the recording unit 646 in the same manner as the rear visible light image. For this reason, the FIFO 642 and the recording unit 646 have recording areas for the rear side and the front side, respectively.

なお、前方監視装置の場合、自車両602が所定以上に前方車両への車間距離を詰めてしまったことを監視記録制御部632が検出し、これが車両制御部604に送られたときは、車内出力部612の音声出力部616に「車間距離をとってください」などの警告アナウンスを行わせるとともに、居眠り等により車間距離が危険領域にまで縮まったときは、ブレーキ608を自動的に作動させ、衝突を防止する。 In the case of the front monitoring device, when the monitoring record control unit 632 detects that the own vehicle 602 has narrowed the inter-vehicle distance to the front vehicle more than a predetermined value and this is sent to the vehicle control unit 604, When the voice output unit 616 of the output unit 612 makes a warning announcement such as “take a distance between vehicles”, and when the distance between the vehicles is reduced to a dangerous area due to falling asleep, the brake 608 is automatically activated, Prevent collisions.

図31は、後方カメラ/センサ622の詳細を距離検知原理とともに示したブロック図であり、上面から見た配置概念図となっている。なお、図30と同一部分には同一番号を付している。図31において、赤外ビームスキャナ630は、レーザまたは発光ダイオードからなりビームを投射するソーラーブラインドビーム光源802と、投射ビームを反射して道路面と平行にスキャンさせるためのポリゴンミラー、共振型ガルバノミラーまたは音響光学偏向素子などからなる二次元走査系804を有する。なお、ソーラーブラインドビーム光源802からのビームは、道路のアップダウンに対応して後続車両をカバーするため、後述のように断面が縦長になっている。なお、同様の目的で道路のアップダウンに対応して水平垂直方向に位置する可能性のある後続車両をカバーするためには、二次元走査系804を縦方向のスキャンも含む空間走査系として構成してもよい。 FIG. 31 is a block diagram showing the details of the rear camera / sensor 622 together with the distance detection principle, and is an arrangement conceptual diagram viewed from the top. The same parts as those in FIG. 30 are denoted by the same reference numerals. In FIG. 31, an infrared beam scanner 630 includes a solar blind beam light source 802 made of a laser or a light emitting diode and projecting a beam, a polygon mirror for reflecting the projected beam and scanning in parallel with the road surface, and a resonant galvanometer mirror. Alternatively, a two-dimensional scanning system 804 including an acousto-optic deflection element is included. The beam from the solar blind beam light source 802 has a vertically long cross section as will be described later in order to cover the following vehicle corresponding to the up and down of the road. For the same purpose, the two-dimensional scanning system 804 is configured as a spatial scanning system including a vertical scanning in order to cover a succeeding vehicle that may be positioned in the horizontal and vertical directions corresponding to the up and down of the road. May be.

CIGS撮像センサ626の光軸806はほぼ車両602の中心に配置されるが、二次元走査系804による走査ビームの回転中心は、この光軸806から離れた位置設けられる。投射ビームの回転中心と光軸806の距離はいわゆる三角測距の基線長となるので、原理的には両者間はできるだけ離れているのが望ましい。従って、配置が可能であれば、例えば赤外ビームスキャナ630は尾灯の一部に設けるのが好適である。しかしながら、一方で、後方カメラ/センサ622を出来るだけユニットとしてコンパクトにまとめることを優先する場合には、精度が保証できる限り、赤外ビームスキャナ630とCIGS撮像センサを近接して配置するのが好適である。 The optical axis 806 of the CIGS imaging sensor 626 is disposed substantially at the center of the vehicle 602, but the rotation center of the scanning beam by the two-dimensional scanning system 804 is provided at a position away from the optical axis 806. Since the distance between the rotation center of the projection beam and the optical axis 806 is a so-called triangulation baseline length, in principle, it is desirable that the two be separated as much as possible. Therefore, if the arrangement is possible, for example, the infrared beam scanner 630 is preferably provided in a part of the taillight. However, on the other hand, when priority is given to assembling the rear camera / sensor 622 as compact as possible, it is preferable to arrange the infrared beam scanner 630 and the CIGS imaging sensor close to each other as long as accuracy can be guaranteed. It is.

後方カメラ/センサ622は以上のような構成であるので、例えば後続車両が車両622の真後ろの位置810に存在した時、角度812にある投射ビームの反射光814がCIGS撮像センサ626に向かう。つまり、反射ビーム814の像はCIGS撮像センサ626の光軸806上、すなわち画面の左右方向中央に撮像される。この反射ビーム814の像の位置と投射ビームの角度の組合せは後続車両の位置810によって一義的に決まり、その時の投射ビームの角度812は監視記録制御部で把握されているので、投射ビームの角度と反射ビーム814の撮像位置の組合せから位置810にいる後続車両までの距離が求まることになる。 Since the rear camera / sensor 622 is configured as described above, for example, when the following vehicle exists at a position 810 immediately behind the vehicle 622, the reflected light 814 of the projection beam at the angle 812 is directed to the CIGS imaging sensor 626. That is, the image of the reflected beam 814 is imaged on the optical axis 806 of the CIGS imaging sensor 626, that is, at the center in the left-right direction of the screen. The combination of the image position of the reflected beam 814 and the angle of the projection beam is uniquely determined by the position 810 of the following vehicle, and the angle 812 of the projection beam at that time is grasped by the monitoring recording control unit. The distance from the combination of the imaging position of the reflected beam 814 to the following vehicle at the position 810 is obtained.

同様にして、後続車両が車両622の真後ろの位置816に存在したときは、角度818にある投射ビームによる反射ビーム820がCIGS撮像センサ626に向かう。このときも反射ビーム820の像はCIGS撮像センサ626の画面の左右方向中央に撮像されるが、投射ビームが異なる角度818にあるので、後続車がより遠い位置816にあることがわかる。なお、後続車が位置822にいたときには、位置816にいるときと同様、投射ビームが角度818にあるときの反射光ビーム824の像がCIGS撮像センサ626に撮像される。しかしこのときの反射光ビーム824の撮像位置は、画面の左右中央ではなく、主光線826の延長線上の、図31で画面中央より右側の位置に撮像されるので、位置822が位置816と混同されることはない。 Similarly, when the following vehicle is present at a position 816 immediately behind the vehicle 622, the reflected beam 820 by the projection beam at the angle 818 is directed to the CIGS imaging sensor 626. At this time as well, the image of the reflected beam 820 is captured at the center of the screen of the CIGS imaging sensor 626 in the left-right direction. When the succeeding vehicle is at position 822, the reflected light beam 824 image when the projection beam is at an angle 818 is picked up by the CIGS image sensor 626 as in the case of the position 816. However, the imaging position of the reflected light beam 824 at this time is not the center of the left and right sides of the screen, but is imaged on the right side of the center of the screen in FIG. Will never be done.

図32は、CIGS撮像センサ624によって撮像された画像を車内出力部612の画像出力部614で見たときの概念図である。図32(A)は、図31のような位置に後続車両があるときに対応したものであり、最も近い真後ろの位置810にある後続車両とこれによる反射ビーム814が観察される。なお、上記のように投射ビームの断面が縦長なので後続車両による反射ビーム814の像も縦長形状をしている。また、反射ビーム814は、簡単のため位置810にいる後続車両の中央にのみ図示しているが、実際には後続車両前面の左端から右端まで投射ビームがスキャンされる間、反射ビームが帯状に検知される。なお、スキャン速度は車両速度よりも充分高速なのでスキャン中の車両位置の動きは無視できる。そこで、このように帯状に車両前面全体に渡っている反射ビームの像から、図32(A)に示すような反射ビーム814の像を求めこれに対応する投射ビームの角度を確定するためには、車両前面に渡っている帯状の反射ビーム像の重心を求める処理が必要である。このような重心を求めて処理することについては後述する。 FIG. 32 is a conceptual diagram when an image captured by the CIGS imaging sensor 624 is viewed by the image output unit 614 of the in-vehicle output unit 612. FIG. 32A corresponds to the case where the following vehicle is present at the position as shown in FIG. 31, and the succeeding vehicle at the nearest rearmost position 810 and the reflected beam 814 thereby are observed. Since the cross section of the projection beam is vertically long as described above, the image of the reflected beam 814 from the succeeding vehicle has a vertically long shape. The reflected beam 814 is shown only in the center of the following vehicle at the position 810 for the sake of simplicity, but the reflected beam is actually banded while the projection beam is scanned from the left end to the right end of the front surface of the following vehicle. Detected. Since the scan speed is sufficiently higher than the vehicle speed, the movement of the vehicle position during the scan can be ignored. Therefore, in order to determine the angle of the projection beam corresponding to the image of the reflected beam 814 as shown in FIG. 32 (A) from the image of the reflected beam extending over the entire front surface of the vehicle in this manner. A process for obtaining the center of gravity of the belt-like reflected beam image extending over the front of the vehicle is necessary. Finding and processing such a center of gravity will be described later.

図32(A)では、上記のような位置810にいる後続車両と同様にして、より遠い真後ろの位置816にある後続車両とこれによる反射ビーム820の重心、および右側にずれた位置822を走行している後続車両とこれによる反射ビーム824の重心が、画像出力部614内に図示されている。なお、図32は概念図であって、説明の都合上、複数の後続車両を同時に鳥瞰的に図示しているが、実際の画像はこれと異なる。つまり、車両602および各後続車両が平地を走行している場合、CIGS撮像センサの光軸806が道路面に平行に設定されているため、位置816にいる後続車両は、その真ん前の位置810に後続車両がいる場合、その陰に隠れて全く見えない。また、斜め後方の位置822を走行している後続車両は、前方の位置810の後続車両と重なって撮像される。なお、このように複数の後続車両が重なっている場合の処理については後述する。 In FIG. 32 (A), in the same manner as the following vehicle at the position 810 as described above, the vehicle follows the following vehicle at the far rear position 816, the center of gravity of the reflected beam 820, and the position 822 shifted to the right side. The following vehicle and the center of gravity of the reflected beam 824 are shown in the image output unit 614. Note that FIG. 32 is a conceptual diagram, and for convenience of explanation, a plurality of succeeding vehicles are shown simultaneously in a bird's-eye view, but an actual image is different from this. That is, when the vehicle 602 and each subsequent vehicle are traveling on a flat ground, the optical axis 806 of the CIGS imaging sensor is set in parallel to the road surface, so that the subsequent vehicle at the position 816 is at the position 810 just before it. If there is a following vehicle, it is hidden behind and cannot be seen at all. In addition, the following vehicle that is traveling at an obliquely rear position 822 is imaged so as to overlap the following vehicle at the forward position 810. Note that processing in the case where a plurality of succeeding vehicles overlap in this way will be described later.

図32(B)は後続車両が位置826に示すように異常接近した場合を図示しており、上記のように、このような後続車両に対しては、後方車ドラレコ告知表示部648から「後方撮影中です」などの告知表示が行われる。またプライバシーへの配慮のため、異常状態がない限りは、画像に対し、フロントガラス部モザイク処理828およびナンバープレートモザイク処理830が施される。なお、このモザイク処理は、事故等により異常加速度検知部644による異常加速度検知が行われたときには解除される。従って、証拠保全のためには、運転者の顔やナンバープレート等が写った画像が記録されることになる。 FIG. 32B illustrates a case where the following vehicle has abnormally approached as indicated by a position 826. As described above, for such a succeeding vehicle, a “rear vehicle driving information display” 648 indicates “rearward”. An indication such as “Shooting is in progress” is displayed. For privacy reasons, unless there is an abnormal state, the image is subjected to a windshield mosaic process 828 and a license plate mosaic process 830. This mosaic processing is canceled when the abnormal acceleration is detected by the abnormal acceleration detector 644 due to an accident or the like. Therefore, in order to preserve evidence, an image showing the driver's face, license plate, etc. is recorded.

図33は、第5実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフである。CIGSセンサの分光感度(量子効率)832は図3(A)と同じものを概念的に示したものである。これに対し、地表における太陽光の分光放射照度834は、大気の吸収を受けて櫛歯上に太陽光の分光放射照度が低くなるソーラーブラインド領域を有する。1100nm近辺や1400nm近辺がこれに相当する。両者を比較すると、CIGSセンサは1100nm近辺における太陽光のソーラーブラインド領域において高い分光感度を有することがわかる。そこで、第5実施例では、図7から図10で説明したようなカラーフィルタ配列における赤外光透過フィルタとして、1100nm近辺における太陽光のソーラーブラインド領域にピークを持つ分光透過率836のバンドパスフィルタを採用する。図31のソーラーブラインドビーム光源は、このバンドパスフィルタの透過領域に強い分光強度を有するものである。このようにして、CIGS撮像センサ626の赤外画素数は、太陽光の存在にかかわらず、赤外ビームスキャナから投射されるビームの反射光を検知できる。 FIG. 33 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS imaging sensor 626 in the fifth embodiment. The spectral sensitivity (quantum efficiency) 832 of the CIGS sensor is conceptually the same as that shown in FIG. On the other hand, the spectral irradiance 834 of sunlight on the ground surface has a solar blind region where the spectral irradiance of sunlight is reduced on the comb teeth upon absorption of the atmosphere. This corresponds to around 1100 nm and around 1400 nm. Comparing the two, it can be seen that the CIGS sensor has high spectral sensitivity in the solar blind region of sunlight around 1100 nm. Therefore, in the fifth embodiment, a bandpass filter having a spectral transmittance 836 having a peak in the solar blind region of sunlight near 1100 nm as an infrared light transmitting filter in the color filter array as described with reference to FIGS. Is adopted. The solar blind beam light source of FIG. 31 has a strong spectral intensity in the transmission region of this bandpass filter. In this way, the number of infrared pixels of the CIGS image sensor 626 can detect the reflected light of the beam projected from the infrared beam scanner regardless of the presence of sunlight.

図33には、さらに赤透過フィルタ、緑透過フィルタおよび青透過フィルタにそれぞれ採用される狭い可視光領域のバンドパスフィルタの分光透過率838、840および842をそれぞれ図示している。これらの波長域では、地表における太陽光の分光放射照度834は充分であり、かつ、CIGSセンサの分光感度(量子効率)832も極めて高いので、可視光の撮像が可能となる。このように、第5実施例では、赤透過フィルタの分光透過率838を含め、すべてのフィルタが狭い領域の波長域を透過させるバンドパスフィルタとなっているので、可視光の撮像およびソーラーブラインド領域の投射ビームによる距離検知を同時に行うことが可能である。なお、撮像レンズ604のピント位置は可視光を基準にして行う。この場合、赤外画素についてはピントが合わないが、反射ビームの重心を求める目的からは問題はない。 FIG. 33 further shows spectral transmittances 838, 840, and 842 of bandpass filters of a narrow visible light region that are respectively employed for a red transmission filter, a green transmission filter, and a blue transmission filter. In these wavelength ranges, the spectral irradiance 834 of sunlight on the ground surface is sufficient, and the spectral sensitivity (quantum efficiency) 832 of the CIGS sensor is extremely high, so that visible light can be imaged. As described above, in the fifth embodiment, since all the filters including the spectral transmittance 838 of the red transmission filter are band pass filters that transmit a narrow wavelength region, imaging of visible light and solar blind region are possible. It is possible to simultaneously detect the distance by the projection beam. Note that the focus position of the imaging lens 604 is determined based on visible light. In this case, the infrared pixel is not in focus, but there is no problem for the purpose of obtaining the center of gravity of the reflected beam.

図34は、図30の第5実施例における監視記録制御部632の動作のフローチャートである。フローは、車両602が走行を開始するとスタートし、ステップS302でドライブレコーダ記録の開始を指示するとともに、ステップS304でソーラーブラインド赤外ビームによるスキャン開始を指示してステップS306に至る。ステップS306では、上記の指示に基づいて前方および後方画像処理部から送られる可視画像、前方および後方マイクからの音声、前方および前方の検知距離のFIFO記録を指示する。 FIG. 34 is a flowchart of the operation of the monitoring record control unit 632 in the fifth embodiment of FIG. The flow starts when the vehicle 602 starts traveling. In step S302, the start of drive recorder recording is instructed. In step S304, the start of scanning with a solar blind infrared beam is instructed, and the process proceeds to step S306. In step S306, based on the above-described instructions, the visual images sent from the front and rear image processing units, the sound from the front and rear microphones, and the FIFO recording of the front and front detection distances are instructed.

次いでステップS308では、赤外ビームスキャナ630からのビーム角度およびCIGS撮像センサのソーラーブラインド領域撮像画像に基づく車間距離検知処理を行う。この車間距離検知は前方車両および後方車両の両者について行われるものであるが、その詳細は後述する。ステップS308で前方および後方の車間距離が検知されると、ステップS310ではこれに基づいて、前方カメラ/センサ722および後方カメラ/センサ622についてそれぞれ可視光撮影のためのカメラの自動ピント合わせが行われる。 Next, in step S308, an inter-vehicle distance detection process based on the beam angle from the infrared beam scanner 630 and the solar blind area captured image of the CIGS imaging sensor is performed. This inter-vehicle distance detection is performed for both the front vehicle and the rear vehicle, details of which will be described later. When the front and rear inter-vehicle distances are detected in step S308, in step S310, the front camera / sensor 722 and the rear camera / sensor 622 are automatically focused on the camera for visible light shooting, respectively. .

次のステップS312では、ステップS308で検知した前方車間距離に基づいて、前方車への異常接近の有無がチェックされる。そして前方車間異常接近が検知されるとステップS314に進み、ブレーキを安全な強度で自動作動させて減速する指示を行うとともにステップS316で異常車間距離のアナウンスを指示してステップS318に移行する。一方、ステップS312で前方車間異常接近が検知されなければ直接ステップS318に移行する。ここで、車間距離に応じたよりきめ細かい処理を望む場合は、ステップS312の車間距離判断を二段階にし、車間距離が比較的大きい時はステップS316の警告アナウンス指示のみに留めるとともに、車間距離がより短くなったときのみステップS314のブレーキ自動作動を加えるよう構成する。また、このようなきめ細かい処置にするか図34通りの一段階の処理にするかを予め選択しておくよう構成することもできる。 In the next step S312, the presence or absence of an abnormal approach to the preceding vehicle is checked based on the front inter-vehicle distance detected in step S308. When an abnormal approach between the front vehicles is detected, the process proceeds to step S314, where an instruction to decelerate by automatically operating the brake with a safe strength is given, and an announcement of an abnormal inter-vehicle distance is given at step S316, and the process proceeds to step S318. On the other hand, if no forward inter-vehicle abnormal approach is detected in step S312, the process proceeds directly to step S318. Here, when more detailed processing according to the inter-vehicle distance is desired, the inter-vehicle distance determination in step S312 is made in two stages, and when the inter-vehicle distance is relatively large, only the warning announcement instruction in step S316 is kept, and the inter-vehicle distance is shorter. Only when this occurs, the brake automatic operation of step S314 is applied. Further, it can be configured to select in advance whether such a fine treatment or one-step processing as shown in FIG.

ステップS318では、ステップS308で検知した後方車間距離に基づいて、後方車が異常接近しているか否かのチェックが行われる。そして後方車間異常接近が検知されるとステップS3320に進み、異常車間距離のアナウンスを指示する。さらに、ステップS322では、後方車両運転者に見えるよう車両602の後部窓に「後方撮影中です」などの告知表示を行わせる。また、ステップS324では、後方カメラ/センサ622が撮像する後方車の画像に対し、フロントガラス部モザイク処理828およびナンバープレートモザイク処理830を施す指示を出してステップS326に移行する。一方、ステップS318で後方車間異常接近が検知されなければステップS328に進み、ステップS320からステップS324に該当する後方車対策を解除してステップS326に移行する。これは、異常接近状態の検知に対応して後方車との車間距離が広がり、正常状態に復帰したときに必要な処理である。 In step S318, based on the distance between the rear vehicles detected in step S308, it is checked whether the rear vehicle is abnormally approaching. When an abnormal approach between the rear vehicles is detected, the process proceeds to step S3320, and an announcement of the abnormal inter-vehicle distance is instructed. Further, in step S322, a notice display such as “being photographed in the rear” is displayed on the rear window of the vehicle 602 so that it can be seen by the driver of the rear vehicle. In step S324, an instruction is given to perform windshield mosaic processing 828 and license plate mosaic processing 830 on the rear vehicle image captured by the rear camera / sensor 622, and the process proceeds to step S326. On the other hand, if an abnormal approach between the rear vehicles is not detected in step S318, the process proceeds to step S328, the countermeasure for the rear vehicle corresponding to step S324 is canceled from step S320, and the process proceeds to step S326. This is a process that is necessary when the inter-vehicle distance from the rear vehicle increases corresponding to the detection of the abnormal approach state and the vehicle returns to the normal state.

ステップS326では、異常加速度が検知されたかどうかがチェックされ、検知があればステップS330で後方車フロント/ナンバープレートモザイク処理を解除する。さらにステップS332では、異常加速度検知後10秒の画像/音声/距離がFIFO642に入力されるのを待つとともにこのようにして確保されたFIFO642における異常加速度検知前後10秒分の画像/音声/距離を記録部646に記録してステップS334に移行する。一方、ステップS326で異常加速度が検知されなければ直接ステップS334に移行する。 In step S326, it is checked whether or not an abnormal acceleration is detected. If there is a detection, the rear vehicle front / number plate mosaic process is canceled in step S330. In step S332, the image / sound / distance for 10 seconds after the detection of the abnormal acceleration is waited to be input to the FIFO 642, and the image / sound / distance for 10 seconds before and after the detection of the abnormal acceleration in the FIFO 642 thus secured is obtained. Recording is performed in the recording unit 646, and the process proceeds to step S334. On the other hand, if no abnormal acceleration is detected in step S326, the process directly proceeds to step S334.

ステップS334では、車両が停止したかどうかチェックし、停止していなければステップS306に戻って、以下ステップS306からステップS334を繰り返し、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。一方、ステップS334で車両の停止が検知されるとステップS336の停車中処理に移行する。車両の事故は、車両の走行中だけでなく、例えば信号で停車中に後方から追突される等のケースもある。停車中処理はこのような車両停止中の事故にたいしても証拠保全するためのものである。 In step S334, it is checked whether or not the vehicle has stopped. If not stopped, the process returns to step S306, and thereafter steps S306 to S334 are repeated to continue recording and detection by the front camera / sensor 722 and the rear camera / sensor 622. While dealing with various conditions. On the other hand, when the stop of the vehicle is detected in step S334, the process proceeds to the stoppage process in step S336. There are cases in which a vehicle accident occurs not only when the vehicle is running, but also when the vehicle crashes from behind while the vehicle is stopped by a signal, for example. The stop processing is for preserving evidence even for such an accident while the vehicle is stopped.

図35は、図34の停車中処理の詳細を示すフローチャートである。図34のステップS334から図35の停車中処理に移行すると、まず、ステップS342で車両が走行しているかどうかチェックする。ここで走行していることが検知されると図34のステップS306に戻る。一方、停車が継続されていることが確認されるとステップS344に進み、継続して前方および後方画像処理部から送られてきている可視画像、前方および後方マイクからの音声、前方および前方の検知距離のFIFO記録を指示する。 FIG. 35 is a flowchart showing details of the stopping process of FIG. When the process proceeds from the step S334 in FIG. 34 to the stoppage process in FIG. 35, it is first checked in step S342 whether or not the vehicle is traveling. If it is detected that the vehicle is traveling, the process returns to step S306 in FIG. On the other hand, if it is confirmed that the stop is continued, the process proceeds to step S344, and the visible image continuously transmitted from the front and rear image processing units, the sound from the front and rear microphones, the detection of the front and front are detected. Instructs FIFO recording of distance.

次いでステップS336では、赤外ビームスキャナ630からのビーム角度およびCIGS撮像センサのソーラーブラインド領域撮像画像に基づく車間距離検知処理を行う。これは、図34のステップS308と同じ処理である。ステップS346で前方および後方の車間距離が検知されると、ステップS348ではこれに基づいて、前方カメラ/センサ722および後方カメラ/センサ622についてそれぞれ可視光撮影のためのカメラの自動ピント合わせが行われる。これも図34のステップS310と同じものである。 Next, in step S336, an inter-vehicle distance detection process based on the beam angle from the infrared beam scanner 630 and the solar blind area captured image of the CIGS imaging sensor is performed. This is the same process as step S308 in FIG. When the front and rear inter-vehicle distances are detected in step S346, in step S348, the front camera / sensor 722 and the rear camera / sensor 622 are automatically focused on the camera for visible light shooting based on this. . This is also the same as step S310 in FIG.

次のステップS350では、ステップS308で検知した前方車間距離に基づいて、前方車に対し、停車を前提とした異常接近の有無がチェックされる。この異常接近の判断基準は図34のステップS312よりも近接した距離である。既に車両602は停車しているので、このような場合は、前方車が気付かずバックしてきた場合などに相当する。従って、停車前提前方車間異常接近が検知されるとステップS352に進み、自動的にクラクションを作動させて前方車に注意を促し、ステップS354に移行する。一方、ステップS3520で停車前提前方車間異常接近が検知されなければ直接ステップS354に移行する。 In the next step S350, based on the front inter-vehicle distance detected in step S308, the presence or absence of abnormal approach on the premise of stopping is checked for the preceding vehicle. The criterion for determining the abnormal approach is a distance closer than that in step S312 of FIG. Since the vehicle 602 has already stopped, such a case corresponds to a case where the preceding vehicle has come back without noticing. Accordingly, when an abnormal approach between the vehicles on the premise of stopping is detected, the process proceeds to step S352, the horn is automatically actuated to call attention to the preceding vehicle, and the process proceeds to step S354. On the other hand, if it is determined in step S3520 that an abnormal approach between the vehicles on the premise of stopping is not detected, the process directly proceeds to step S354.

ステップS354では、ステップS308で検知した後方車間距離に基づいて、後方車が異常接近しているか否かのチェックが行われる。このチェック基準は図34のステップS318と同じものである。但しここで後方車異常接近が検地されたときは、図34のような警告アナウンス指示や後方車ドラレコ告知表示指示は行わず、ステップS356の後方車フロント/ナンバーモザイク処理のみを行ってステップS358に移行する。これは、信号待ち停車等においては後方車との車間距離が短くなるのが当然であり、このような状態での警告アナウンス指示は無用であるとともに、後方車ドラレコ告知表示指示はかえって後方車とのトラブルの原因になるからである。そこで、後方車フロント/ナンバーモザイク処理によるプライバシー配慮のみに留めている。一方、ステップS356で後方車間異常接近が検知されなければステップS360に進み、後方車対策を解除してステップS358に移行する。これは、自車両停車時に後方車が遠くにいる状態において後方車フロント/ナンバーモザイク処理を解除するためである。 In step S354, based on the distance between the rear vehicles detected in step S308, it is checked whether the rear vehicle is abnormally approaching. This check criterion is the same as that in step S318 in FIG. However, when the rear vehicle abnormal approach is detected here, the warning announcement instruction and the rear car dorareko notification display instruction as shown in FIG. 34 are not performed, and only the rear car front / number mosaic process of step S356 is performed and the process proceeds to step S358. Transition. This is because it is natural that the distance between the vehicle and the rear vehicle is shortened when waiting for a signal, etc., and the warning announcement instruction in such a state is unnecessary, and the rear vehicle dorareko notification display instruction is This is a cause of trouble. Therefore, it is limited to privacy considerations by the rear car front / number mosaic processing. On the other hand, if an abnormal approach between the rear vehicles is not detected in step S356, the process proceeds to step S360, the rear vehicle countermeasure is canceled, and the process proceeds to step S358. This is to cancel the rear vehicle front / number mosaic process in a state where the rear vehicle is far away when the host vehicle is stopped.

ステップS358では、ステップS308で検知した前方車間距離に基づいて、後方車に対し、停車を前提とした異常接近の有無がチェックされる。この異常接近の判断基準はステップS354におけるよりも近接した距離である。そしてこのような異常接近が検知されるとステップS362に進み、フットブレーキを自動作動させてステップS364に移行する。これは、サイドブレーキのみで停車している場合において、万一追突された場合に車両の停止能力を高めてショックを少しでも軽減するためである。一方、ステップS358で停車前提後方車間異常接近が検知されなければ直接ステップS364に移行する。 In step S358, on the basis of the front inter-vehicle distance detected in step S308, it is checked whether or not there is an abnormal approach on the assumption that the rear vehicle is stopped. The criterion for determining the abnormal approach is a closer distance than in step S354. When such an abnormal approach is detected, the process proceeds to step S362, the foot brake is automatically operated, and the process proceeds to step S364. This is because, when the vehicle is stopped only by the side brake, in the unlikely event of a rear-end collision, the stopping ability of the vehicle is enhanced to reduce the shock as much as possible. On the other hand, if it is not detected in step S358 that an abnormal approach between the vehicles behind the stop is detected, the process directly proceeds to step S364.

ステップS362では、異常加速度が検知されたかどうかがチェックされ、検知があればステップS366で後方車フロント/ナンバープレートモザイク処理を解除する。さらにステップS368では、異常加速度検知後10秒の画像/音声/距離がFIFO642に入力されるのを待つとともにこのようにして確保されたFIFO642における異常加速度検知前後10秒分の画像/音声/距離を記録部646に記録してステップS334に移行する。これらは図34のステップS330およびステップS332と同じである。一方、ステップS364で異常加速度が検知されなければ直接ステップS370に移行する。 In step S362, it is checked whether or not an abnormal acceleration is detected. If there is a detection, the rear vehicle front / number plate mosaic process is canceled in step S366. In step S368, the image / sound / distance for 10 seconds after the abnormal acceleration is detected is input to the FIFO 642, and the image / sound / distance for 10 seconds before and after the abnormal acceleration detection in the FIFO 642 thus secured is determined. Recording is performed in the recording unit 646, and the process proceeds to step S334. These are the same as step S330 and step S332 of FIG. On the other hand, if no abnormal acceleration is detected in step S364, the process directly proceeds to step S370.

ステップS370では、動力が停止したかどうかチェックし、停止していればステップS372に進んで、前方カメラ/センサ722および後方カメラ/センサ622からの信号に基づく前方画像処理部736および後方画像処理部636の画像処理により、画像中に動体が写っていない状態が所定時間以上続いているかどうかチェックする。そして動体が検知されればステップS342に戻り、以下ステップS342からステップS372を繰り返し、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。ステップS372で動体が検知されたときステップS342に戻るのは、車両602が停車しかつ動力が停止させられていても周囲に走行中の車両があれば事故に巻き込まれるおそれがあるのでその場合の証拠保全を行うためである。一方、ステップS372で所定時間以上動体検知がなければ車両602が車庫など安全な位置に格納されたことを意味するのでフローを終了する。なお、ステップS370で動力が停止していないことが検知された時もステップS342に戻り、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。 In step S370, it is checked whether the power is stopped. If it is stopped, the process proceeds to step S372, and the front image processing unit 736 and the rear image processing unit based on the signals from the front camera / sensor 722 and the rear camera / sensor 622 are checked. By the image processing at 636, it is checked whether or not a moving object is not captured in the image for a predetermined time or more. If a moving object is detected, the process returns to step S342, and thereafter, steps S342 to S372 are repeated to cope with various states while continuing recording and detection by the front camera / sensor 722 and the rear camera / sensor 622. When a moving object is detected in step S372, the process returns to step S342 because there is a possibility that the vehicle 602 may be involved in an accident if there is a running vehicle even if the vehicle 602 is stopped and the power is stopped. This is to maintain evidence. On the other hand, if no moving object is detected for a predetermined time or more in step S372, it means that the vehicle 602 has been stored in a safe position such as a garage, and thus the flow ends. When it is detected in step S370 that the power is not stopped, the process returns to step S342, and various states are dealt with while recording and detection by the front camera / sensor 722 and the rear camera / sensor 622 are continued.

図36は、図34のステップS308および図35のステップS346における車間距離検知処理の詳細を示すフローチャートである。このフローは前方カメラ/センサ722の画像および後方カメラ/センサ622のそれぞれについて実施されるものであるが、以下の説明では簡単のため、後方カメラ/センサ622からの画像についての処理として説明する。フローがスタートすると、ステップS382で可視光画像の処理が行われる。そしてこの処理に基づき、ステップS384で車両602と同一車線内後方に車両画像があるかどうかチェックする。そして画像があればステップS386に進み、その画像の対象性をチェックする。これは複数の車両が重なって写っていないかどうかチェックすることを意味する。対象性がなければ、ステップS388に進み、予め用意された何パターンかの車両重なり画像とそれぞれマッチングを行う。 FIG. 36 is a flowchart showing details of the inter-vehicle distance detection process in step S308 of FIG. 34 and step S346 of FIG. This flow is performed for each of the image of the front camera / sensor 722 and the rear camera / sensor 622, but in the following description, for the sake of simplicity, it will be described as processing for the image from the rear camera / sensor 622. When the flow starts, a visible light image is processed in step S382. Based on this processing, it is checked in step S384 whether there is a vehicle image behind the vehicle 602 in the same lane. If there is an image, the process proceeds to step S386, and the objectivity of the image is checked. This means checking whether a plurality of vehicles overlap each other. If there is no target, the process proceeds to step S388, and matching is performed with several patterns of vehicle overlap images prepared in advance.

次いで、ステップS386では一致するパターンが見つかりそのパターンに基づいて重なっている複数の車両のうちの最も近いもののみの画像が分離できたかどうかチェックし、分離が出来ればステップS392に移行する。一方、ステップS386で車両画像に対称性があれば重なりはないものとして直接ステップS392に移行する。そして、ステップS392で分離した単独車両の画像の大きさからその車両の距離を判断する。しかしながら、この距離判断は車両自体に軽自動車から大型バス等にわたる大きさのばらつきがあるためあくまで大まかなものである。さらにステップS394では、分離した単独車両の可視光画像における重心を検知してステップS396に移行する。 Next, in step S386, a matching pattern is found, and it is checked whether images of only the closest one of a plurality of overlapping vehicles can be separated based on the pattern. If separation is possible, the process proceeds to step S392. On the other hand, if there is symmetry in the vehicle image in step S386, it is determined that there is no overlap, and the process directly proceeds to step S392. Then, the distance of the vehicle is determined from the size of the image of the single vehicle separated in step S392. However, this distance determination is only rough because the vehicle itself has variations in size ranging from light cars to large buses. Further, in step S394, the center of gravity in the visible light image of the separated single vehicle is detected, and the process proceeds to step S396.

ステップS396では、ソーラーブラインド画素の画像処理が行われる。そして、ステップS398において、出力が所定以上の画像群があるかどうかのチェックが行われる。これは、後方をスキャンしているソーラーブラインド領域の投射ビームが後方車両により反射されこれが後方カメラ/センサ622のソーラーブラインド画素で検知されているかどうかをチェックしていることに相当する。車両等の近接物体がない限り、投射ビームの反射光が所定以上の強度をもつことはないからである。 In step S396, solar blind pixel image processing is performed. In step S398, it is checked whether or not there is an image group whose output is greater than or equal to a predetermined value. This is equivalent to checking whether the projected beam in the solar blind area scanning backward is reflected by the vehicle behind and is detected by the solar blind pixel of the rear camera / sensor 622. This is because the reflected light of the projection beam does not have a predetermined intensity or more unless there is a close object such as a vehicle.

ステップS398で出力所定以上の画素群があればステップS400に進み、画素群の中にステップS494で検知した可視光画像重心に一致する部分があるかどうかチェックする。そして該当する部分があれば、これを反射ビームの重心と看做し、ステップS402においてこの反射ビーム重心の元になった投射ビームの角度情報を取得する。これによって、ステップS404では、ステップS402で得た投射ビーム角度およびステップS394で得た画像重心位置より投射ビームを反射した車両までの距離を仮決定する。このようにして仮決定された距離は、次のステップS406においてステップS392で求めた画像大きさに基づく距離に矛盾しないかどうかチェックする。そして矛盾がなければステップS404で仮決定した距離を正式に検知車両までの距離として本決定しフローを終了する。 If there is a pixel group having a predetermined output or more in step S398, the process proceeds to step S400, and it is checked whether or not there is a portion in the pixel group that matches the center of the visible light image detected in step S494. If there is a corresponding portion, this is regarded as the center of gravity of the reflected beam, and in step S402, the angle information of the projection beam that is the origin of the center of the reflected beam is acquired. Thus, in step S404, the distance to the vehicle that reflected the projection beam is provisionally determined from the projection beam angle obtained in step S402 and the image centroid position obtained in step S394. It is checked whether the distance temporarily determined in this way is consistent with the distance based on the image size obtained in step S392 in the next step S406. If there is no contradiction, the distance temporarily determined in step S404 is officially determined as the distance to the detected vehicle, and the flow ends.

一方、ステップS406で距離に矛盾があればステップS410に進み、画像処理が所定回数以上行われたかどうかチェックして、まだ所定回数の達していなければステップS382に戻り、可視光画像処理から処理をやり直す。このようにして、ステップS406で画像大きさ距離に矛盾しないソーラーブラインド検知距離が求まったことが確認されるか又はステップS410で画像処理が所定回数以上行われたことが検知されない限りステップS382からステップS410が繰り返される。なお、ステップS384で同一車線内車両画像が検知されなかったとき、またはステップS390で重なり画像から単独車両が分離できなかったとき、またはステップS398で出力が所定以上のソーラーブラインド画素がなかったとき、またはステップS400でソーラーブラインド画素群に可視光画像重心と一致する部分がなかったときは、いずれも直ちにステップS410に移行し、画像処理の繰り返しに入る。 On the other hand, if there is a discrepancy in the distance in step S406, the process proceeds to step S410, where it is checked whether the image processing has been performed a predetermined number of times or more. If the predetermined number of times has not yet been reached, the process returns to step S382, and the processing from the visible light image processing is performed. Try again. In this way, unless it is confirmed in step S406 that a solar blind detection distance that is consistent with the image size distance has been obtained or it is not detected in step S410 that the image processing has been performed a predetermined number of times or more, steps S382 to S382 are performed. S410 is repeated. In addition, when a vehicle image in the same lane is not detected in step S384, or when a single vehicle cannot be separated from the overlapping image in step S390, or when there is no solar blind pixel whose output is greater than or equal to a predetermined value in step S398, Alternatively, when there is no portion in the solar blind pixel group that coincides with the visible light image centroid in step S400, the process immediately proceeds to step S410, and the image processing is repeated.

これに対し、ステップS410で距離の本決定ができないまま画像処理が所定回数以上くりかえされたことが検知されたときはステップS412に進み、ステップS392により画像大きさ距離の有無をチェックする。そして、画像大きさ距離があればステップS414に進んでそのうちの最新の画像大きさ距離を採用してフローを終了する。一方、ステップS412で画像大きさ距離がなかった時はステップS416に進み、無限遠から中近距離までの車両後方の大半にピントが合うパンフォーカス距離を採用してフローを終了する。これによって、少なくとも図34のステップS310または図35のステップS348のカメラAFのための何らかの距離を決定してフローが終了される。 On the other hand, when it is detected in step S410 that the image processing has been repeated a predetermined number of times or more without being able to determine the distance, the process proceeds to step S412 and whether or not there is an image size distance is checked in step S392. If there is an image size distance, the process proceeds to step S414, the latest image size distance among them is adopted, and the flow ends. On the other hand, if there is no image size distance in step S412, the process proceeds to step S416, and a pan focus distance that focuses on most of the rear of the vehicle from infinity to the middle distance is adopted, and the flow ends. Accordingly, at least some distance for the camera AF in step S310 of FIG. 34 or step S348 of FIG. 35 is determined, and the flow is ended.

図37は、本発明の第6実施例の車両用監視装置の後方カメラ/センサの詳細を距離検知原理とともに示したブロック図である。第6実施例は、図30の全体構成ブロックを含め基本的には第5実施例と共通の構成を有しているが、前方カメラセンサおよび後方カメラ/センサにおけるCIGSセンサ周辺の構成が若干異なるなるものである。図37には、図31の第5実施例と同様にして代表として後方カメラ/センサ922を図示しているが、第5実施例と共通する部分には図31と共通の番号を付し、特に必要ない限り、説明は省略する。 FIG. 37 is a block diagram showing details of the rear camera / sensor of the vehicle monitoring apparatus according to the sixth embodiment of the present invention together with the distance detection principle. Although the sixth embodiment basically has the same configuration as that of the fifth embodiment including the entire configuration block of FIG. 30, the configuration around the CIGS sensor in the front camera sensor and the rear camera / sensor is slightly different. It will be. FIG. 37 shows the rear camera / sensor 922 as a representative in the same manner as the fifth embodiment of FIG. 31, but parts common to the fifth embodiment are numbered the same as in FIG. 31. Description is omitted unless particularly necessary.

第6実施例のCIGS撮像センサ926はカラーフィルタの構成が異なり、赤透過フィルタは狭い領域を透過させるバンドパスフィルタではなく、赤より長波長側を透過させるローパスフィルタが採用されている。また、赤外光透過フィルタについても、ソーラーブラインドの狭い領域の赤外光を透過させるバンドパスフィルタではなく、ソーラーブラインド領域およびそれ以外の近赤外領域の光を透過させるローパスフィルタとなっている。これらのローパスフィルタは、バンドパスフィルタよりも構成が簡単である。このため、まずソーラーブラインド領域より長波長側をカットするための、固定ハイパスフィルタ901がCIGSセンサ926への光路中に設けられる。さらに、赤領域より長波長側であってかつソーラーブラインド領域よりも短波長側の光をカットする可動帯域カットフィルタ903がCIGSセンサ926への光路中に設けられる。これらの組合せにより、結果的に図33と同様にして赤画素、緑画素、青画素およびソーラーブラインド画素のそれぞれに狭い領域の光がそれぞれ入射することになる。 The CIGS imaging sensor 926 of the sixth embodiment has a different color filter configuration, and the red transmission filter is not a band-pass filter that transmits a narrow region but a low-pass filter that transmits longer wavelengths than red. Also, the infrared light transmission filter is not a bandpass filter that transmits infrared light in a narrow area of the solar blind, but a low-pass filter that transmits light in the solar blind area and other near infrared areas. . These low-pass filters are simpler in construction than band-pass filters. For this reason, first, a fixed high-pass filter 901 for cutting the longer wavelength side than the solar blind region is provided in the optical path to the CIGS sensor 926. Further, a movable band cut filter 903 that cuts light that is longer than the red region and shorter than the solar blind region is provided in the optical path to the CIGS sensor 926. As a result of these combinations, light in a narrow area is incident on each of the red pixel, the green pixel, the blue pixel, and the solar blind pixel, as in FIG.

第6実施例はさらに、赤外撮影が可能となっている。このためには、可動帯域カットフィルタ903がCIGS撮像センサ926への光路から退避させられ、代わりに、可視光領域をカットして赤外領域を透過させる可動ローパスフィルタ905がCIGSセンサ926への光路中に設けられる。可動帯域カットフィルタ903および可動ローパスフィルタ905の差し換えはフィルタ駆動部907が行う。平均照度検知部909は、CIGSセンサの可視光出力に基づき、平均照度が小さくなったとき、すなわち夕暮から夜間に相当する状況になったものと判断し、フィルタ駆動部907に指示して、可動帯域カットフィルタ903を可動ローパスフィルタ905に自動切換えさせる。さらに、コントラスト検知部909は、CIGSセンサの可視光出力に基づき、コントラストが小さくなったとき、雨や霧で視界が悪くなったものと判断し、フィルタ駆動部907に指示して、可動帯域カットフィルタ903を可動ローパスフィルタ905に自動切換えさせる。 In the sixth embodiment, infrared imaging is further possible. For this purpose, the movable band cut filter 903 is retracted from the optical path to the CIGS imaging sensor 926, and instead the movable low-pass filter 905 that cuts the visible light region and transmits the infrared region is the optical path to the CIGS sensor 926. Provided inside. The filter drive unit 907 replaces the movable band cut filter 903 and the movable low-pass filter 905. Based on the visible light output of the CIGS sensor, the average illuminance detection unit 909 determines that the average illuminance has decreased, that is, the situation corresponding to the evening to the night, and instructs the filter driving unit 907 to move. The band cut filter 903 is automatically switched to the movable low pass filter 905. Further, based on the visible light output of the CIGS sensor, the contrast detector 909 determines that the field of view has deteriorated due to rain or fog when the contrast decreases, and instructs the filter driver 907 to cut the movable band. The filter 903 is automatically switched to the movable low-pass filter 905.

以上のようにして、第6実施例はでは、暗いときまたは視界が悪い時において、可視光撮影を赤外光撮影に自動切換えすることができる。なお、平均照度検知部909およびコントラスト検知部909は、CIGSセンサの赤外光出力に基づき、平均照度またはコントラストが大きくなったとき可動ローパスフィルタ905を可動帯域カットフィルタ903に自動切換えさせて赤外光撮影から可視光撮影へ切換えさせる。なお、AF駆動部940は上記のようなフィルタの差し換えに連動し、赤外撮影が行われるときはピント合わせに赤外補正を加える。 As described above, according to the sixth embodiment, visible light photographing can be automatically switched to infrared light photographing when it is dark or when visibility is poor. The average illuminance detection unit 909 and the contrast detection unit 909 automatically switch the movable low-pass filter 905 to the movable band cut filter 903 when the average illuminance or contrast increases based on the infrared light output of the CIGS sensor. Switch from light photography to visible light photography. The AF driving unit 940 works in conjunction with the above-described filter replacement, and adds infrared correction to focus when infrared imaging is performed.

図38は、第6実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフであり、図38(A)は可視光撮影の状態、図38(B)は赤外光撮影の状態をそれぞれ示している。CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840のおよび青透過フィルタの分光透過率842はそれぞれ図33と同じである。これに対し、赤透過フィルタの分光透過率932は、赤より長波長側を透過させるローパスフィルタとなっている。また、赤外光透過フィルタの分光透過率936は、ソーラーブラインド領域およびそれ以外の近赤外領域の光を透過させるローパスフィルタとなっており、図38(B)からわかるようにソーラーブラインド領域よりも短波長側の近赤外領域を比較的広く透過させている。さらに、固定ハイパスフィルタ901の分光感度は、ソーラーブラインド領域より長波長側をカットするハイパスフィルタとなっている。 38A and 38B are graphs for explaining the spectral transmission characteristics of the filter of the CIGS image sensor 626 in the sixth embodiment. FIG. 38A is a visible light imaging state, and FIG. 38B is an infrared light imaging. Each state is shown. The spectral sensitivity 832 of the CIGS sensor, the spectral irradiance 834 of sunlight, the spectral transmission factor 840 of the green transmission filter, and the spectral transmission factor 842 of the blue transmission filter are the same as in FIG. On the other hand, the spectral transmittance 932 of the red transmission filter is a low-pass filter that transmits longer wavelengths than red. In addition, the spectral transmittance 936 of the infrared light transmission filter is a low-pass filter that transmits light in the solar blind region and other near infrared regions. As can be seen from FIG. Also, the near-infrared region on the short wavelength side is transmitted relatively widely. Furthermore, the spectral sensitivity of the fixed high-pass filter 901 is a high-pass filter that cuts the longer wavelength side than the solar blind region.

以上のような構成において、図38(A)では、斜線部に示すように、可動帯域カットフィルタ903が赤領域より長波長側であってかつソーラーブラインド領域よりも短波長側の光をカットしている。この結果、図33と同様にして赤画素、緑画素、青画素およびソーラーブラインド画素のそれぞれに狭い領域の光がそれぞれ入射することになる合成分光透過率が達成されている。なお、図38(A)の状態では、赤画素においても赤画像に重畳してソーラーブラインド投射ビームの反射光が感知される。この反射光は予めわかっているビーム投射タイミングでしか感知されないので、このタイミングにおける出力変化から投射ビーム反射光を検知して距離検知情報に利用することもできる。なお、赤画素がソーラーブラインド領域に感度をもっていても、太陽光による影響はないので、投射ビームが関与しないかぎり、赤の可視光撮像には問題はない。 In the above configuration, in FIG. 38A, the movable band cut filter 903 cuts light on the longer wavelength side than the red region and on the shorter wavelength side than the solar blind region, as indicated by the hatched portion. ing. As a result, similar to FIG. 33, a combined spectral transmittance is achieved in which light in a narrow area is incident on each of the red pixel, the green pixel, the blue pixel, and the solar blind pixel. In the state of FIG. 38A, the reflected light of the solar blind projection beam is sensed by superimposing it on the red image even in the red pixel. Since this reflected light is detected only at a previously known beam projection timing, the projected beam reflected light can be detected from the output change at this timing and used for distance detection information. Even if the red pixel has sensitivity in the solar blind region, there is no influence of sunlight, so that there is no problem with red visible light imaging unless the projection beam is involved.

これに対し、図38(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域をカットしている。この結果、近赤外のかなり広い帯域の光が赤外画素に入射することになる。これによって太陽光を光源とするものも含めた赤外光による撮像が可能となる。また、ソーラーブラインド領域の光も入射可能なので、投射ビームによる距離測定も可能である。ここで図38(B)の状態では赤画素は赤外画素とほぼ同じ分光透過率を持つことになるので、赤外撮影においては、赤画素を赤外画素と看做して撮像情報に活用することができる。 On the other hand, in FIG. 38B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region as indicated by the hatched portion. As a result, light in a fairly wide band in the near infrared is incident on the infrared pixel. As a result, imaging using infrared light including that using sunlight as a light source becomes possible. In addition, since light in the solar blind region can be incident, distance measurement using a projection beam is also possible. Here, in the state of FIG. 38B, the red pixel has almost the same spectral transmittance as that of the infrared pixel. Therefore, in infrared imaging, the red pixel is regarded as the infrared pixel and used for imaging information. can do.

なお、第6実施例において広い帯域の近赤外光を入射させることによる収差およびピント位置のずれが問題になるときは、赤外光透過フィルタの分光透過率936のカットオフ波長を例えば1000nm程度としてソーラーブラインド領域に近づけるとともに、可動ローパスフィルタ905のカットオフ波長もこれに対応して1000nm程度にシフトさせ、短波長側の近赤外光をカットするようにする。これによって赤外光撮影の帯域を狭くし、収差およびピント位置のずれを軽減す売ることができる。但し、これによって赤外光撮影の光量が低下するので両者の兼ね合いから赤外光撮影の透過帯域幅を決定する。また、目的に応じ、そのピークをどこにするかの選択も可能である。 In the sixth embodiment, when aberration due to incidence of near-infrared light in a wide band and shift in focus position become problems, the cutoff wavelength of the spectral transmittance 936 of the infrared light transmission filter is set to about 1000 nm, for example. As a result, the cut-off wavelength of the movable low-pass filter 905 is shifted to about 1000 nm correspondingly to cut near-infrared light on the short wavelength side. As a result, the infrared imaging band can be narrowed to reduce aberrations and focus position shifts. However, since this reduces the amount of light for infrared light photography, the transmission bandwidth for infrared light photography is determined based on the balance between the two. Also, it is possible to select where the peak is depending on the purpose.

図39は、図37の第6実施例における監視記録制御部632の動作のフローチャートである。その内容は、図34の第5実施例におけるフローチャートと共通するところが多いので、共通するところには同一のステップ番号を付すとともに、図34と関係付けて説明する。まず、図39におけるステップS302からステップS308、ステップS334は図34の同一番号ステップと同じである。また、図39のステップS422における車両異常接近処理は、図34のステップS312からステップS324およびステップS328をまとめたものであって、その内容は同一である。同様に、図39のステップS424における異常加速度検知処理は、図34のステップS326、ステップS330およびステップS332をまとめたものであって、その内容は同一である。そして、図34のステップS310の部分が、図39のステップS426からステップS442に置き換わっている。なお、図39のステップS444における停車中処理の内容は、図35のステップS348の部分を図39のステップS426からステップS442に置き換えたものである。 FIG. 39 is a flowchart of the operation of the monitoring record controller 632 in the sixth embodiment of FIG. Since the contents are often in common with the flowchart in the fifth embodiment of FIG. 34, the common steps are given the same step numbers and will be described in relation to FIG. First, step S302 to step S308 and step S334 in FIG. 39 are the same as the step with the same number in FIG. Further, the vehicle abnormal approach process in step S422 in FIG. 39 is a combination of steps S312 to S324 and S328 in FIG. 34, and the contents thereof are the same. Similarly, the abnormal acceleration detection process in step S424 in FIG. 39 is a combination of step S326, step S330, and step S332 in FIG. 34, and the contents thereof are the same. 34 is replaced by step S442 from step S426 in FIG. The contents of the stopping process in step S444 in FIG. 39 are obtained by replacing step S348 in FIG. 35 from step S426 in FIG. 39 to step S442.

以上の前提のもとで、図39のステップS426からステップS442について説明する。これらの部分は、図37で説明した可動ローパスフィルタ905と可動帯域カットフィルタ903の自動切換えおよび、これに連動するAF駆動部940の赤外補正に関するものである。図39において、ステップS308で前方および後方の車間距離が検知されると、ステップS426では手動で赤外撮影が選択されたかどうかチェックする。選択がなければステップS428に移行し、平均照度検知部909により検知される照度が所定以下かどうかチェックする。照度が所定以下でなければさらにステップS430でコントラスト検知部911により検知されるコントラストが所定以下であるかどうかチェックする。 Based on the above assumptions, steps S426 to S442 in FIG. 39 will be described. These portions relate to automatic switching between the movable low-pass filter 905 and the movable band cut filter 903 described with reference to FIG. 37, and infrared correction of the AF driving unit 940 in conjunction therewith. In FIG. 39, when the front and rear inter-vehicle distances are detected in step S308, it is checked in step S426 whether infrared imaging has been manually selected. If there is no selection, the process proceeds to step S428, and it is checked whether the illuminance detected by the average illuminance detection unit 909 is equal to or less than a predetermined value. If the illuminance is not less than the predetermined value, it is further checked in step S430 if the contrast detected by the contrast detection unit 911 is less than the predetermined value.

ステップS430でコントラストが所定以下であると判断されたときはステップS432に進み、可視光帯域をカットする可動ローパスフィルタ905を挿入する指示をフィルタ制御部907に行う。なお、ステップS426で手動赤外撮影選択が検知されたとき、またはステップS428で照度が所定以下であることが検知されたときは直ちにステップS432に移行する。次いで、ステップS434では、AF駆動部940に赤外補正つきのカメラAFによるピント合わせを行うよう指示する。さらにステップS436では赤外光画像出力を選択するよう画像処理部に指示してステップS422に移行する。 When it is determined in step S430 that the contrast is equal to or lower than the predetermined value, the process proceeds to step S432, and an instruction to insert a movable low-pass filter 905 that cuts the visible light band is given to the filter control unit 907. When manual infrared imaging selection is detected in step S426, or when it is detected in step S428 that the illuminance is not more than a predetermined value, the process immediately proceeds to step S432. Next, in step S434, the AF driving unit 940 is instructed to perform focusing by camera AF with infrared correction. In step S436, the image processing unit is instructed to select infrared image output, and the process proceeds to step S422.

一方、ステップS430でコントラストについても所定以下でなかったときはステップS438に移行し、ソーラーブラインド以外の赤外帯域をカットする可動帯域カットフィルタ903を挿入する指示をフィルタ制御部907に行う。次いで、ステップS440では、AF駆動部940に赤外補正なしのカメラAFによるピント合わせを行うよう指示する。さらにステップS436では可視光画像出力を選択するよう画像処理部に指示してステップS422に移行する。 On the other hand, if the contrast is not less than or equal to the predetermined value in step S430, the process proceeds to step S438, and the filter controller 907 is instructed to insert a movable band cut filter 903 that cuts the infrared band other than the solar blind. Next, in step S440, the AF drive unit 940 is instructed to perform focusing by camera AF without infrared correction. In step S436, the image processing unit is instructed to select visible light image output, and the process proceeds to step S422.

図40は、本発明の第7実施例の車両用監視装置の前方および後方カメラ/センサに用いられるCIGS撮像センサのカラーフィルタ配列である。このフィルタ配列は、基本的には原色カラーフィルタにおいて代表的なベイヤー配列と全く同様であって、赤透過フィルタR21(IR21)、緑透過フィルタG11、G22、および青透過フィルタB12を有する。但し、第7実施例では、後述のようにフィルタ切換えによって赤透過フィルタR21(IR21)に該当する画素の出力が赤外光出力としても兼用される。本発明の第7実施例の車両用監視装置の前方および後方カメラ/センサの構成は、図37に示した第6実施例と共通であり、上記のようにCIGS撮像センサ926のフィルタ配列のみが異なる。 FIG. 40 is a color filter array of a CIGS imaging sensor used for the front and rear cameras / sensors of the vehicle monitoring apparatus according to the seventh embodiment of the present invention. This filter arrangement is basically the same as a typical Bayer arrangement in primary color filters, and includes a red transmission filter R21 (IR21), green transmission filters G11 and G22, and a blue transmission filter B12. However, in the seventh embodiment, the output of the pixel corresponding to the red transmission filter R21 (IR21) is also used as the infrared light output by switching the filter as described later. The configuration of the front and rear cameras / sensors of the vehicle monitoring apparatus of the seventh embodiment of the present invention is the same as that of the sixth embodiment shown in FIG. 37, and only the filter array of the CIGS image sensor 926 is as described above. Different.

図41は、第7実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフであり、図38の場合と同様にして、図41(A)は可視光撮影の状態、図41(B)は赤外光撮影の状態をそれぞれ示している。CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840、青透過フィルタの分光透過率842、赤透過フィルタの分光透過率932、固定ハイパスフィルタ901の分光感度および可動帯域カットフィルタ903の分光感度は、それぞれ図38(A)と同じである。つまり、第7実施例では、上記のCIGS撮像センサのカラーフィルタ配列により、赤外専用の画素が除かれたことだけが第6実施例と異なる。 FIG. 41 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS imaging sensor 626 in the seventh embodiment. FIG. 41A shows the state of visible light imaging, as in FIG. 41 (B) shows the state of infrared light photography. CIGS sensor spectral sensitivity 832, solar spectral irradiance 834, green transmission filter spectral transmission factor 840, blue transmission filter spectral transmission factor 842, red transmission filter spectral transmission factor 932, fixed high-pass filter 901 spectral sensitivity and The spectral sensitivity of the movable band cut filter 903 is the same as that in FIG. That is, the seventh embodiment differs from the sixth embodiment only in that the infrared-only pixels are removed by the color filter array of the CIGS imaging sensor.

この結果、図41(A)の状態では、図40のR21(IR21)とうに該当する分光透過率932の赤画素に赤画像に重畳してソーラーブラインド投射ビームの反射光が感知されることになる。第7実施例ではソーラーブラインド反射光検出のための専用画像を持たないので、赤画素の赤画像出力からソーラーブラインド反射光成分を分離するため、投射ビームを高速で断続させる。この断続タイミングは予めわかっているので、投射タイミングに同期して増加する赤画素出力があれば、これをソーラーブラインド反射光として分離する。なお、赤画素がソーラーブラインド領域に感度をもっていても、太陽光による影響はないので、投射ビームが関与しないかぎり、赤の可視光撮像には問題はないことは第6実施例と同様である。 As a result, in the state of FIG. 41A, the reflected light of the solar blind projection beam is detected by superimposing the red image on the red pixel of the spectral transmittance 932 corresponding to R21 (IR21) of FIG. . In the seventh embodiment, since there is no dedicated image for detecting the solar blind reflected light, the projection beam is intermittently interrupted in order to separate the solar blind reflected light component from the red image output of the red pixel. Since this intermittent timing is known in advance, if there is a red pixel output that increases in synchronization with the projection timing, it is separated as solar blind reflected light. Note that even if the red pixel has sensitivity in the solar blind area, it is not affected by sunlight. Therefore, as long as the projection beam is not involved, there is no problem with red visible light imaging as in the sixth embodiment.

これに対し、図41(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている。この結果、分光透過率932の赤画素には1000nmから1100nm近辺までの太陽光に基づく赤外光およびソーラーブラインド投射ビームの反射光が検知される。ここでも、赤画素の赤外光出力からソーラーブラインド反射光成分を分離するため、投射ビームを高速で断続させる。この断続タイミングは予めわかっているので、図41(A)の場合と同様、投射タイミングに同期して増加する赤画素出力があれば、これをソーラーブラインド反射光として分離することができる。 On the other hand, in FIG. 41B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm as shown by the hatched portion. As a result, red light having a spectral transmittance of 932 detects infrared light based on sunlight from 1000 nm to around 1100 nm and reflected light of the solar blind projection beam. Again, in order to separate the solar blind reflected light component from the red pixel infrared light output, the projection beam is intermittently interrupted. Since the intermittent timing is known in advance, as in the case of FIG. 41A, if there is a red pixel output that increases in synchronization with the projection timing, it can be separated as solar blind reflected light.

なお、図41(B)において、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている例を示したが、これは第7実施例に特有のことではない。既に第6実施例において、収差およびピント位置の問題への対処のため可動ローパスフィルタ905のカットオフ波長を1000nm程度にシフトさせることについて説明したが、図41(B)はこのような構成を採用した例を具体的に示したものである。第7実施例においても、ソーラーブラインド反射光成分の分離、および収差およびピント位置のずれの観点で問題がない場合は、第6実施例と同様にして、赤外撮影状態における可動ローパスフィルタ905のカットオフ波長を短波長側にシフトしてもよい。 FIG. 41B shows an example in which the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm, but this is not unique to the seventh embodiment. In the sixth embodiment, it has already been described that the cut-off wavelength of the movable low-pass filter 905 is shifted to about 1000 nm in order to cope with the problem of aberration and focus position. FIG. 41B adopts such a configuration. This example is specifically shown. Also in the seventh embodiment, when there is no problem in terms of separation of reflected light components of the solar blind, aberration, and focus position shift, the movable low-pass filter 905 in the infrared imaging state is the same as in the sixth embodiment. The cutoff wavelength may be shifted to the short wavelength side.

図42は、本発明の第8実施例の車両用監視装置の前方および後方カメラ/センサに用いられるCIGS撮像センサのカラーフィルタの分光透過特性を説明するためのグラフである。第8実施例は、基本的には第7実施例と同様の構成を持つ。すなわちCIGS撮像センサのフィルタ配列は、図40に示すようなベイヤー配列であり、第7実施例と同様にしてフィルタ切換えにより赤透過フィルタR21に該当する画素の出力が赤外光出力としても兼用される。また、第7実施例と同様にして、車両用監視装置の前方および後方カメラ/センサの構成は、図37に示した第6実施例と共通のものである。図42の第8実施例が第7実施例と異なるのは、ソーラーブラインドビーム反射光検知による距離検知機能を省略し、専ら可視光による通常昼間の可視光ドライブレコーダおよび夜間または霧中などにおける赤外光ドライブレコーダの自動切換えに機能を絞った点にある。 FIG. 42 is a graph for explaining the spectral transmission characteristics of the color filter of the CIGS image sensor used in the front and rear cameras / sensors of the vehicle monitoring apparatus according to the eighth embodiment of the present invention. The eighth embodiment has basically the same configuration as the seventh embodiment. That is, the filter arrangement of the CIGS imaging sensor is a Bayer arrangement as shown in FIG. 40, and the output of the pixel corresponding to the red transmission filter R21 is also used as the infrared light output by switching the filter as in the seventh embodiment. The Similarly to the seventh embodiment, the configuration of the front and rear cameras / sensors of the vehicle monitoring apparatus is the same as that of the sixth embodiment shown in FIG. The eighth embodiment of FIG. 42 differs from the seventh embodiment in that the distance detection function by solar blind beam reflected light detection is omitted, and the visible light drive recorder in the normal daytime with only visible light and the infrared light in the nighttime or in fog. The function is limited to automatic switching of the optical drive recorder.

第8実施例においても、図38および図41と同様にして、図42(A)は可視光撮影の状態、図42(B)は赤外光撮影の状態をそれぞれ示している。また、図42において、CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840、青透過フィルタの分光透過率842、赤透過フィルタの分光透過率932、および可動帯域カットフィルタ903の分光感度は、それぞれ図41(A)と同じである。図42が図41と異なるのは、固定ハイパスフィルタ901が1100nm近辺のソーラーブラインド領域を含めこれより長い波長域をカットする分光透過率となっており、CIGSセンサのソーラーブラインド領域の感度を利用していない点である。 Also in the eighth embodiment, similarly to FIGS. 38 and 41, FIG. 42 (A) shows the state of visible light photographing, and FIG. 42 (B) shows the state of infrared light photographing, respectively. 42, the spectral sensitivity 832 of the CIGS sensor, the spectral irradiance 834 of sunlight, the spectral transmission factor 840 of the green transmission filter, the spectral transmission factor 842 of the blue transmission filter, the spectral transmission factor 932 of the red transmission filter, and the movable The spectral sensitivity of the band cut filter 903 is the same as that in FIG. FIG. 42 differs from FIG. 41 in that the fixed high-pass filter 901 has a spectral transmittance that cuts a longer wavelength range including the solar blind region near 1100 nm, and uses the sensitivity of the CIGS sensor in the solar blind region. That is not the point.

これによって、可動帯域カットフィルタ903が挿入されている図42(A)の状態では分光透過率932の赤画素に赤画像のみが感知されることになる。これに対し、図42(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている。この結果、分光透過率932の赤画素には1000nmから1100nm近辺までの太陽光に基づく赤外光が検知される。このようにして、CIGSセンサの広い分光感度を利用し、ベイヤー配列における赤画素が可視光撮影における赤画像検知および赤外光撮影における赤外画像検知に切換えて利用される。なお、このような第8実施例のCIGSセンサはドライブレコーダに限らず、第1実施例、第2実施例におけるカメラ、また第4実施例におけるような内視鏡においても採用が可能なものである。 Thus, in the state of FIG. 42A in which the movable band cut filter 903 is inserted, only the red image is sensed by the red pixel having the spectral transmittance 932. On the other hand, in FIG. 42B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm as shown by the hatched portion. As a result, infrared light based on sunlight from 1000 nm to around 1100 nm is detected by the red pixel having the spectral transmittance of 932. In this way, the wide spectral sensitivity of the CIGS sensor is used, and the red pixels in the Bayer array are switched to red image detection in visible light photography and infrared image detection in infrared light photography. The CIGS sensor of the eighth embodiment is not limited to the drive recorder, but can be used in the cameras in the first and second embodiments, and in the endoscope in the fourth embodiment. is there.

図43は、本発明の第9実施例の上面外観図であり、携帯電話1として構成されている。携帯電話1は、ヒンジ部3によって表示部5を有する上部7がテンキーなどの操作部9を有する下部11の上に折り畳み可能に構成される。上部7には電話機能を構成する受話口13が設けられるとともに、携帯電話1をテレビ電話として利用する場合において表示部5を見ている操作者の顔を写すことができるとともに、自分撮りの際にも利用される内側カメラ17が配置されている。さらに、上部7には、携帯電話1が通話のために顔に近接していることを検知するための赤外光発光部19および顔からの赤外反射光を受光する赤外光近接センサ21が設けられており、赤外光近接センサ21の出力が所定以上あることで顔の接近が検知されると、省電力のため表示部5のバックライトを消灯する。なお、図43では図示しないが、上部7の背面には背面カメラが設けられており、携帯電話1の背面側にあって表示部5でモニタされる被写体を撮影することができる。 FIG. 43 is a top external view of a ninth embodiment of the present invention, which is configured as a mobile phone 1. The cellular phone 1 is configured so that the upper part 7 having the display part 5 can be folded on the lower part 11 having the operation part 9 such as a numeric keypad by the hinge part 3. The upper portion 7 is provided with an earpiece 13 that constitutes a telephone function. In addition, when the mobile phone 1 is used as a video phone, the face of the operator who is looking at the display unit 5 can be shown and when taking a selfie. An inner camera 17 is also used. Further, the upper portion 7 includes an infrared light emitting unit 19 for detecting that the mobile phone 1 is close to the face for a call, and an infrared light proximity sensor 21 for receiving infrared reflected light from the face. When the approach of the face is detected when the output of the infrared light proximity sensor 21 is greater than or equal to a predetermined value, the backlight of the display unit 5 is turned off for power saving. Although not shown in FIG. 43, a rear camera is provided on the rear surface of the upper portion 7, and a subject that is on the rear surface side of the mobile phone 1 and is monitored by the display unit 5 can be photographed.

一方、下部11には、その下方に電話機能を構成する送話口23が設けられるとともに、情報にはCIGS撮像センサ25が配置されている。CIGS撮像センサ25は、図3(A)に示すように波長1300nm近くにわたる広い感度域を持つとともに400nm付近から1200nm付近の広い波長域に渡り量子効率50%を超える分光感度を有するものであり、後述するように、頬の肌の撮影、頬の肌水分の測定、親指静脈の認証、脈波による健康チェックなどの諸機能を有する。そしてその周囲には、上記の種々の目的のためのLEDを有する光源部27が配されている。CIGS撮像センサ25および光源部27は下部11の上方、すなわち携帯電話1全体で見るとその中央部近くに設けられているため、指静脈の認証の際に携帯電話1を保持する手の親指の認証が片手操作にて可能である。 On the other hand, the lower part 11 is provided with a mouthpiece 23 constituting a telephone function below, and a CIGS imaging sensor 25 is arranged for information. As shown in FIG. 3A, the CIGS imaging sensor 25 has a wide sensitivity range over a wavelength of about 1300 nm and has a spectral sensitivity exceeding 50% quantum efficiency over a wide wavelength range from about 400 nm to about 1200 nm. As will be described later, it has various functions such as cheek skin imaging, cheek skin moisture measurement, thumb vein authentication, and health check by pulse wave. Around that, a light source unit 27 having LEDs for various purposes described above is arranged. Since the CIGS imaging sensor 25 and the light source unit 27 are provided above the lower portion 11, that is, near the center of the cellular phone 1 as a whole, the thumb of the hand holding the cellular phone 1 is used for finger vein authentication. Authentication is possible with one-handed operation.

頬の肌の撮影および頬の肌水分の測定は、携帯電話1が通話のために顔に近接している状態で測定され、通話が終わると表示部5において肌水分表示29が自動的に所定時間行われる。一方、親指による静脈認証や脈波検知は、上記のように携帯電話1を持つ手の親指をCIGS撮像センサ25近傍上方にて非接触でかざすことにより可能である。このとき、CIGS撮像センサ25の出力によるフォーカス検知機能に基づき、親指を近づける旨の指示31または親指を離す旨の指示32が表示部5に表示される。また、親指認証時に同時に親指の脈波が検知され、検知された脈波の形状に基づく血管状態の健康診断結果や脈波に基づくパルスオキシメータの血中酸素飽和度などの健康チェック情報35が表示部5に表示される。なお、図43では、説明の都合上、表示部5に現に表示されている指示31を実践で囲んで示し、適宜表示が可能な他の情報を破線で囲んで図示している。また、表示のレイアウトは図43に限るものではなく、各表示は、同時に表示する必要のない限り、表示部5一杯に表示してよい。 The cheek skin is photographed and the cheek skin moisture is measured while the mobile phone 1 is in close proximity to the face for a call. When the call ends, the skin moisture display 29 is automatically set on the display unit 5. Done for hours. On the other hand, vein authentication or pulse wave detection using the thumb is possible by holding the thumb of the hand holding the mobile phone 1 in the vicinity of the CIGS image sensor 25 in a non-contact manner. At this time, based on the focus detection function based on the output of the CIGS imaging sensor 25, an instruction 31 for bringing the thumb close or an instruction 32 for releasing the thumb is displayed on the display unit 5. At the same time as thumb authentication, the pulse wave of the thumb is detected, and health check information 35 such as a blood vessel health check result based on the detected pulse wave shape and blood oxygen saturation of the pulse oximeter based on the pulse wave is provided. It is displayed on the display unit 5. In FIG. 43, for convenience of explanation, the instruction 31 currently displayed on the display unit 5 is shown by being surrounded by practice, and other information that can be appropriately displayed is surrounded by a broken line. Further, the display layout is not limited to that shown in FIG. 43, and each display may be displayed in full on the display unit 5 as long as it is not necessary to display them simultaneously.

図44は、実施例9のブロック図であり、同一部分には図43と同一番号を付し、必要のない限り、説明は省略する。携帯電話1は、記憶部37に記憶されるプログラムに従って動作する制御部39によって制御される。記憶部37は、また制御部39の制御に必要なデータを一時記憶するとともに、種々の測定データや画像も記憶することができる。表示部5の表示は制御部39の制御に基づき表示ドライバ41の保持する表示データに基づいて行われる。表示部5は表示バックライト43を有しており、このバックライトの明るさはCIGS撮像センサ25が検出する周囲の明るさに基づいて制御39が調節する。 FIG. 44 is a block diagram of the ninth embodiment. The same parts as those in FIG. 43 are denoted by the same reference numerals, and description thereof is omitted unless necessary. The mobile phone 1 is controlled by a control unit 39 that operates according to a program stored in the storage unit 37. The storage unit 37 temporarily stores data necessary for the control of the control unit 39 and can also store various measurement data and images. Display on the display unit 5 is performed based on display data held by the display driver 41 under the control of the control unit 39. The display unit 5 has a display backlight 43, and the brightness of the backlight is adjusted by the control 39 based on the ambient brightness detected by the CIGS image sensor 25.

受話口13および送話口23を含む電話機能部45は、制御部39の制御下にある電話通信部47により、無線電話回線に接続可能である。また携帯電話1は近距離通信部49により、電話回線とは異なる近距離通信システムに基づき、近辺にある機器と無線でデータ通信が可能である。スピーカ51は、制御部39の制御により着信音や種々の案内を行うとともにテレビ電話時の相手の声を出力する。また、画像処理部53は、制御部39に制御されて内側カメラ17および背面カメラ55によって撮像される画像を処理するとともに、CIGS撮像センサ25の画像も処理し、これらの処理結果の画像を記憶部37に入力する。 The telephone function unit 45 including the earpiece 13 and the mouthpiece 23 can be connected to a wireless telephone line by a telephone communication unit 47 under the control of the control unit 39. In addition, the mobile phone 1 can wirelessly perform data communication with a nearby device based on a short-range communication system different from the telephone line by the short-range communication unit 49. The speaker 51 performs ringtones and various guidance under the control of the control unit 39 and outputs the other party's voice during a videophone call. In addition, the image processing unit 53 processes images captured by the inner camera 17 and the rear camera 55 under the control of the control unit 39, processes images of the CIGS imaging sensor 25, and stores images of these processing results. Input to the unit 37.

図45は、第9実施例におけるCIGS撮像センサ25のフィルタの分光透過特性および撮像センサ光源部27のピーク波長を説明するためのグラフである。CIGS撮像センサ25の分光感度(量子効率)101は、図3(A)と同じものを概念的に示したもので、波長1300nm近くにわたる広い感度域を持つとともに400nm付近から1200nm付近までの広い波長域に渡る高量子効率を示すものである。図45(A)は、このようなCIGS撮像センサ25の分光感度101に重ね、波長を示す横軸を共通にして水の吸光度特性103を示したものである。なお、縦軸は分光感度101と水の吸光度特性103の波長依存の相対変化をそれぞれの示すだけのものであり、両者間の絶対的な値には意味はない。図45(A)に明らかなように、水の吸光度特性103は970nm、1200nm、1450nm等にピークを持っている。 FIG. 45 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS image sensor 25 and the peak wavelength of the image sensor light source 27 in the ninth embodiment. The spectral sensitivity (quantum efficiency) 101 of the CIGS imaging sensor 25 conceptually shows the same one as that in FIG. 3A, and has a wide sensitivity range over a wavelength of about 1300 nm and a wide wavelength from about 400 nm to about 1200 nm. It shows high quantum efficiency across the region. FIG. 45A shows the water absorbance characteristic 103 with the horizontal axis indicating the wavelength in common with the spectral sensitivity 101 of the CIGS imaging sensor 25 as described above. Note that the vertical axis merely indicates the wavelength-dependent relative changes of the spectral sensitivity 101 and the water absorbance property 103, and the absolute value between the two is meaningless. As is clear from FIG. 45A, the absorbance property 103 of water has peaks at 970 nm, 1200 nm, 1450 nm, and the like.

一方、図45(B)は、CIGS撮像センサ25の分光感度101に重ね、波長を示す横軸を共通にして酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107を示したものである。なお、図45(B)においても、縦軸は分光感度101と酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107のそれぞれの波長依存の相対変化を示すだけであり、両者間の絶対的な値には意味はない。図45(B)に明らかなように、酸化ヘモグロビンの吸光度特性105は、660nm付近から900nm付近にかけて徐々に大きくなる。これに対し還元ヘモグロビンの吸光度特性10は、660nm付近で大きい吸光度を示すとともに、全体として900nm付近にかけて徐々に吸光度が小さくなる。そしてこの間、760nm付近において一度吸光度の山があるとともに、805nm付近において酸化ヘモグロビンの吸光度特性105とクロスし、両者の吸光度が等しくなっている。 On the other hand, FIG. 45B shows the absorbance characteristic 105 of oxyhemoglobin and the absorbance characteristic 107 of reduced hemoglobin with the horizontal axis indicating the wavelength superimposed on the spectral sensitivity 101 of the CIGS imaging sensor 25. In FIG. 45B as well, the vertical axis only shows the wavelength-dependent relative changes of the spectral sensitivity 101, the absorbance characteristic 105 of oxyhemoglobin, and the absorbance characteristic 107 of reduced hemoglobin. The value has no meaning. As is apparent from FIG. 45B, the absorbance characteristic 105 of oxyhemoglobin gradually increases from around 660 nm to around 900 nm. On the other hand, the absorbance characteristic 10 of reduced hemoglobin exhibits a large absorbance near 660 nm, and the absorbance gradually decreases as a whole near 900 nm. During this time, there is once a peak of absorbance near 760 nm, and crosses the absorbance characteristic 105 of oxyhemoglobin near 805 nm, so that both absorbances are equal.

図45は、以上のようなCIGS撮像センサ25の分光感度101、水の吸光度特性103、酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107を前提として設定したCIGS撮像センサ25の複数種カラーフィルタにそれぞれ採用されるバンドパスフィルタの分光透過率、および光源部27として用いられる複数種のLEDのピーク波長を示している。まず肌水分の測定に関するものについて図45(A)を参照して説明する。バンドパスフィルタ109は、水の吸光度特性103に示される970nm付近のピークに合せ970nmをピーク波長として設定される。この波長領域をカバーする光源としてピーク波長が940nmのLED111(図示の簡単化のためピーク波長のみを一点鎖線で示す。以下同様。)が設けられる。一方、バンドパスフィルタ113は、水の吸光度特性103に示すように吸光度の低い領域の805nmをピーク波長として設定される。また、この波長領域をカバーする光源としてはピーク波長が850nmのLEDが設けられる。このように、所望の出力が得られる限りはコスト面を考慮し、LEDとバンドパスフィルタのピーク波長を厳密に一致させる必要はない。バンドパスフィルタ113のピークとややずれたピーク波長のLED115の採用は、その一例である。なお、CIGS撮像センサは量子効率が高く感度が良いのでこのようなことへの許容度も大きい。 FIG. 45 shows a plurality of types of color filters of the CIGS imaging sensor 25 set on the premise of the spectral sensitivity 101 of the CIGS imaging sensor 25, the water absorbance characteristic 103 of water, the absorbance characteristic 105 of oxyhemoglobin, and the absorbance characteristic 107 of reduced hemoglobin. 2 shows the spectral transmittance of the band-pass filter employed respectively, and the peak wavelengths of a plurality of types of LEDs used as the light source unit 27. First, what is related to the measurement of skin moisture will be described with reference to FIG. The bandpass filter 109 is set to have a peak wavelength of 970 nm in accordance with the peak near 970 nm shown in the water absorbance characteristic 103. As a light source that covers this wavelength region, an LED 111 having a peak wavelength of 940 nm (only the peak wavelength is indicated by a one-dot chain line for simplification of the drawing, the same applies hereinafter) is provided. On the other hand, the bandpass filter 113 is set with a peak wavelength of 805 nm in a low absorbance region as indicated by the water absorbance characteristic 103. An LED having a peak wavelength of 850 nm is provided as a light source covering this wavelength region. As described above, as long as a desired output can be obtained, it is not necessary to make the peak wavelengths of the LED and the bandpass filter exactly coincide with each other in consideration of cost. The use of the LED 115 having a peak wavelength slightly deviated from the peak of the bandpass filter 113 is an example. Since CIGS image sensors have high quantum efficiency and good sensitivity, there is a large tolerance for this.

次に、図45(B)を用いて、親指静脈の認証に関する説明を行う。なお、各バンドパスフィルタおよび各LEDのピーク波長は図45(A)および図45(B)で共通である。バンドパスフィルタ117は、還元ヘモグロビンの吸光度特性107における760nm付近の吸光度の山に合せ760nmをピーク波長として設定される。なお、760nm付近においては吸光度特性105から明らかなように酸化ヘモグロビの吸光度は充分小さい。この波長領域をカバーする光源としてピーク波長が750nmのLED119が設けられる。親指静脈認証のための親指静脈の画像は、このピーク波長750nmのLED119を光源とし、ピーク波長760nmのバンドパスフィルタ117が配されたCIGS撮像センサの画素出力に基づいて撮像される。これによって還元ヘモグロビンの多い静脈の画像が抽出可能となる。このとき、参照画像を取得するため、上記の肌水分検知において説明したピーク波長850nmのLED115を光源としてピーク波長805nmのバンドパスフィルタ113が配されたCIGS撮像センサの画素出力が利用される。ピーク波長805nmの画像は酸化ヘモグロビンと還元ヘモグロビンの吸光度が等しくなっているので参照画像として好適である。 Next, the authentication of the thumb vein will be described with reference to FIG. In addition, the peak wavelength of each band pass filter and each LED is common in FIG. 45 (A) and FIG. 45 (B). The bandpass filter 117 is set with a peak wavelength of 760 nm in accordance with the absorbance peak near 760 nm in the absorbance characteristic 107 of reduced hemoglobin. In the vicinity of 760 nm, as is apparent from the absorbance characteristic 105, the absorbance of oxidized hemoglobin is sufficiently small. An LED 119 having a peak wavelength of 750 nm is provided as a light source covering this wavelength region. The thumb vein image for thumb vein authentication is picked up based on the pixel output of a CIGS imaging sensor in which the LED 119 having a peak wavelength of 750 nm is used as a light source and a band pass filter 117 having a peak wavelength of 760 nm is disposed. As a result, a vein image rich in reduced hemoglobin can be extracted. At this time, in order to acquire a reference image, the pixel output of the CIGS imaging sensor in which the bandpass filter 113 having a peak wavelength of 805 nm is disposed using the LED 115 having the peak wavelength of 850 nm described in the above-described skin moisture detection as a light source is used. An image with a peak wavelength of 805 nm is suitable as a reference image because the absorbances of oxyhemoglobin and reduced hemoglobin are equal.

さらに、図45(B)を用いて、脈波の検出およびこれに基づく血中酸素飽和度の測定について説明する。バンドパスフィルタ201は、還元ヘモグロビンの吸光度特性107において吸光度の高い660nmをピーク波長として設定される。なお、660nm付近においては吸光度特性105から明らかなように酸化ヘモグロビの吸光度が最も小さくなっており、酸化ヘモグロビンと還元ヘモグロビンの吸光度の差が大きい。この波長領域をカバーする光源としてピーク波長が660nmのLED203が設けられる。脈波の検出は、このピーク波長660nmのLED203を光源とするピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力、および上記のピーク波長850nmのLED115を光源とするピーク波長805nmのバンドパスフィルタ113が配されたCIGS撮像センサの画素出力に基づいて検出される。つまり、両出力に基づいて親指内における動脈血の増減がわかるのでこれに基づいて脈波が検出される。さらに脈波に対応する動脈血の厚みの変化に基づき、周知の理論により動脈血の酸素飽和度を求めることができる。 Furthermore, detection of a pulse wave and measurement of blood oxygen saturation based on this will be described with reference to FIG. The band-pass filter 201 is set with a peak wavelength of 660 nm having a high absorbance in the absorbance characteristic 107 of reduced hemoglobin. In the vicinity of 660 nm, as is apparent from the absorbance characteristic 105, the absorbance of oxidized hemoglobin is the smallest, and the difference in absorbance between oxidized hemoglobin and reduced hemoglobin is large. An LED 203 having a peak wavelength of 660 nm is provided as a light source covering this wavelength region. The pulse wave is detected by detecting the pixel output of the CIGS imaging sensor in which the bandpass filter 201 having the peak wavelength of 660 nm is disposed using the LED 203 having the peak wavelength of 660 nm and the peak wavelength of 805 nm using the LED 115 having the peak wavelength of 850 nm as the light source. Is detected based on the pixel output of the CIGS imaging sensor in which the bandpass filter 113 is arranged. That is, since the increase or decrease in arterial blood in the thumb is known based on both outputs, the pulse wave is detected based on this. Furthermore, based on the change in the thickness of arterial blood corresponding to the pulse wave, the oxygen saturation of arterial blood can be obtained by a known theory.

なお、肌水分の測定、親指静脈の認証、および脈波の検出と血中酸素飽和度の測定におけるCIGS撮像センサ25の画素出力の利用は、上記のような2波長の画素出力に限らず、適宜3波長以上を組み合わせることも可能である。例えば、肌水分の測定において、ピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力またはピーク波長760nmのバンドパスフィルタ117が配されたCIGS撮像センサの画素出力またはその両者を利用することができる。同様に、親指静脈の認証において、ピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力またはピーク波長970nmのバンドパスフィルタ109が配されたCIGS撮像センサの画素出力またはその両者を利用することができる。さらに、脈波検出または血中酸素飽和度の測定において、ピーク波長760nmのバンドパスフィルタ117が配されたCIGS撮像センサの画素出力またはピーク波長970nmのバンドパスフィルタ109が配されたCIGS撮像センサの画素出力またはその両者を利用することができる。逆に、設計条件によっては、肌水分の測定、親指静脈の認証、および脈波の検出と血中酸素飽和度の測定のそれぞれ利用する波長域を兼用することによりバンドパスフィルタとLEDの種類を減らすことも可能である。 The use of the pixel output of the CIGS imaging sensor 25 in skin moisture measurement, thumb vein authentication, and pulse wave detection and blood oxygen saturation measurement is not limited to the two-wavelength pixel output as described above. It is also possible to combine three or more wavelengths as appropriate. For example, in the measurement of skin moisture, the pixel output of a CIGS image sensor provided with a bandpass filter 201 having a peak wavelength of 660 nm or the pixel output of a CIGS image sensor provided with a bandpass filter 117 having a peak wavelength of 760 nm is used. can do. Similarly, in the authentication of the thumb vein, the pixel output of the CIGS image sensor provided with the bandpass filter 201 having the peak wavelength of 660 nm and / or the pixel output of the CIGS image sensor provided with the bandpass filter 109 having the peak wavelength of 970 nm are used. Can be used. Furthermore, in pulse wave detection or blood oxygen saturation measurement, the pixel output of a CIGS image sensor having a bandpass filter 117 having a peak wavelength of 760 nm or the CIGS image sensor having a bandpass filter 109 having a peak wavelength of 970 nm is arranged. Pixel output or both can be used. On the other hand, depending on the design conditions, the bandpass filter and LED types can be selected by combining the wavelength range used for skin moisture measurement, thumb vein authentication, and pulse wave detection and blood oxygen saturation measurement. It can also be reduced.

図46は、図43から図45における第9実施例におけるCIGS撮像センサ25のカラーフィルタ配列の例である。図46の例においては、ピーク波長805nmの赤外光透過フィルタIRref11、ピーク波長660nmの赤透過フィルタR12、ピーク波長970nmの赤外透過フィルタIR21およびピーク波長760nmの赤外透過フィルタbIR22が図示のように配列され、これを一つの単位として繰り返す配列となっている。これらはそれぞれ、図45におけるバンドパスフィルタ113、バンドパスフィルタ201、バンドパスフィルタ109およびバンドパスフィルタ117に対応する。なお、図46におけるそれぞれの画素においてカラーフィルタの波長域以外の画像情報を補間することについては、本明細書において図7等で他の実施例について説明した構成を適宜採用することができる。なお、肌水分測定と合わせて、肌画像を撮像するときは、赤および複数波長の赤外画像による多波長画像が得られるので、これらを適宜可視光色に置き換えて画像化することにより肌の状態を画像により目視することができる。 FIG. 46 is an example of the color filter array of the CIGS imaging sensor 25 in the ninth embodiment in FIGS. 43 to 45. In the example of FIG. 46, an infrared light transmission filter IRref11 having a peak wavelength of 805 nm, a red transmission filter R12 having a peak wavelength of 660 nm, an infrared transmission filter IR21 having a peak wavelength of 970 nm, and an infrared transmission filter bIR22 having a peak wavelength of 760 nm are illustrated. It is the arrangement which repeats this as one unit. These correspond to the bandpass filter 113, the bandpass filter 201, the bandpass filter 109, and the bandpass filter 117 in FIG. In addition, for interpolating image information other than the wavelength region of the color filter in each pixel in FIG. 46, the configuration described in the other embodiments in FIG. In addition, when taking a skin image together with skin moisture measurement, a multi-wavelength image with red and multiple-wavelength infrared images can be obtained. The state can be visually confirmed by an image.

図47は、第9実施例に採用可能なLEDの配置の例を示す正面図であり、図45に図示したCIGS撮像センサ25とその周囲の撮像センサ光源部27の詳細構成を示している。また、図47において図45と対応する部分には同一番号を付す。図47から明らかなように、CIGS撮像センサのレンズ205の周囲には、ピーク波長940nmのLED111、ピーク波長850nmのLED115およびピーク波長750nmのLED119がそれぞれ一対、レンズ205の光軸を挟んで60度ずつずれた回転対象に設けられている。一方、ピーク波長660nmのLED203については、レンズ205の光軸周りに60度ずつずれてLED111、LED115およびLED119の隙間に6個、回転対象に配されている。ピーク波長660nmのLED203は比較的小さく構成できるのでこのような実装が可能である。また、個数を増やすことで、個々の発光強度が小さいLEDを用いることが可能となりコストダウンを図ることができる。なお、光軸周りの対象性を問題としない設計の場合は、LEDの個数を各波長についてそれぞれ一個に減少させることもできる。 FIG. 47 is a front view showing an example of the arrangement of LEDs that can be employed in the ninth embodiment, and shows the detailed configuration of the CIGS image sensor 25 shown in FIG. 45 and the image sensor light source 27 around it. In FIG. 47, the same reference numerals are given to the portions corresponding to those in FIG. As is apparent from FIG. 47, a pair of LED 111 having a peak wavelength of 940 nm, an LED 115 having a peak wavelength of 850 nm, and an LED 119 having a peak wavelength of 750 nm are disposed around the lens 205 of the CIGS image sensor at 60 degrees across the optical axis of the lens 205. It is provided on the rotation object shifted by one. On the other hand, six LEDs 203 having a peak wavelength of 660 nm are arranged on the rotation target in a gap between the LEDs 111, 115, and 119, shifted by 60 degrees around the optical axis of the lens 205. Since the LED 203 having a peak wavelength of 660 nm can be configured to be relatively small, such mounting is possible. Further, by increasing the number, it is possible to use an LED having a small light emission intensity, thereby reducing the cost. In the case of a design in which the objectivity around the optical axis is not a problem, the number of LEDs can be reduced to one for each wavelength.

図48は、図44の第9実施例における制御部39の動作のフローチャートである。フローは、携帯電話1の操作部9による主電源のオンでスタートし、ステップS452で初期立上および各部機能チェックを行うとともに表示部5における画面表示を開始する。次いでステップS454では、撮像センサ光源部27を消灯させる。なお、元々消灯状態にあるときはここでは何もしない。さらにステップS456では、携帯電話1が所定時間放置されているなど無操作状態にあるかどうかチェックする。この場合、着信を検知するなど携帯電話1が自身で機能する場合も無操作状態ではないものとする。ステップS456で所定時間の無操作が検知されない場合はステップS458に進み、表示バックライト43を点灯させる。併せてステップS460でCIGS撮像センサ25を活性化する。これによって、ステップS454からステップS460を経た場合、CIGS撮像センサは光源なしに受光を行う状態となる。 FIG. 48 is a flowchart of the operation of the control unit 39 in the ninth embodiment of FIG. The flow starts when the main power supply is turned on by the operation unit 9 of the mobile phone 1, and at step S452, initial startup and function check of each unit are performed and screen display on the display unit 5 is started. Next, in step S454, the imaging sensor light source unit 27 is turned off. Note that nothing is done here when the light is originally off. Further, in step S456, it is checked whether or not the mobile phone 1 is in a no-operation state such as being left for a predetermined time. In this case, it is assumed that the mobile phone 1 is not in a no-operation state even when the mobile phone 1 functions by itself, such as detecting an incoming call. If no operation for a predetermined time is not detected in step S456, the process proceeds to step S458, and the display backlight 43 is turned on. At the same time, the CIGS imaging sensor 25 is activated in step S460. Thereby, when passing through step S460 from step S454, a CIGS image sensor will be in the state which receives light without a light source.

次いで、ステップS462では、CIGS撮像センサ25の出力に基づいて表示バックライトの明るさを調整する。具体的にはCIGS撮像センサの主に赤領域のLED203の出力に基づき、これが大きい時はバックライトを明るくするとともに、LED203の出力が小さい時はバックライトを暗くする。そしてフローはステップS464に移行する。一方、ステップS456で所定時間無操作が検知されたときはステップS466に移行し、表示バックライトを消灯させるとともに、ステップS468でCIGS撮像センサ25を不活性化してステップS464に移行する。この場合は、表示バックライトが消灯するのでその明るさの調整も行われない。 Next, in step S462, the brightness of the display backlight is adjusted based on the output of the CIGS imaging sensor 25. Specifically, based on the output of the LED 203 mainly in the red region of the CIGS imaging sensor, the backlight is brightened when this is large, and the backlight is darkened when the output of the LED 203 is small. Then, the flow moves to step S464. On the other hand, when no operation is detected for a predetermined time in step S456, the process proceeds to step S466, the display backlight is turned off, and the CIGS imaging sensor 25 is deactivated in step S468, and the process proceeds to step S464. In this case, since the display backlight is turned off, the brightness is not adjusted.

ステップS464では、携帯電話1に電話の着信があったかどうかチェックする。なければステップS450で電話番号操作などの発信のための操作があったかどうかチェックする。そして発信操作が検知された時はステップS452に移行する。なお、ステップS464で着信が検知された時もステップS452に移行する。ステップS452は、バックライトが消灯されていたときはこれを復活するとともにその明るさを調整するための撮像センサを活性化するための処理(ステップS458からステップS462と同様の処理)、および着信または発信に基づく通話を開始するための処理を行うステップである。 In step S464, it is checked whether the mobile phone 1 has received an incoming call. If not, it is checked in step S450 whether or not there has been an operation for transmission such as a telephone number operation. When a call operation is detected, the process proceeds to step S452. Note that the process also proceeds to step S452 when an incoming call is detected in step S464. Step S452 restores the backlight when it is turned off and activates the image sensor for adjusting the brightness (the same processing as Step S458 to Step S462), and incoming or This is a step of performing processing for starting a call based on outgoing calls.

ステップS452のバックライト復活/通話開始処理が完了するとステップS454に進み、赤外光近接センサ21の出力に基づいて携帯電話1に頬が近接しているかどうかチェックする。この状態は、携帯電話1を耳と口に近づけて通話体勢に入ることによって生じる。そして頬近接が検知されない場合はステップS456に移行する。これは、通話開始状態になってもまだ携帯電話1が耳と口に近づけられていないか、またはテレビ電話により通話が行われている場合に該当する。一方、ステップS450で発信操作が検知されなかったときは直接ステップS456に移行する。 When the backlight restoration / call start processing in step S452 is completed, the process proceeds to step S454, and it is checked whether the cheek is close to the mobile phone 1 based on the output of the infrared light proximity sensor 21. This state occurs when the mobile phone 1 is brought close to the ear and mouth to enter a talking posture. If cheek proximity is not detected, the process proceeds to step S456. This corresponds to the case where the mobile phone 1 is not yet brought close to the ear and mouth even when the call is started, or a call is made by a videophone. On the other hand, when a call operation is not detected in step S450, the process directly proceeds to step S456.

ステップS456では肌水分を測定するための手動操作が行われたかどうかチェックされ、この操作が検知されたときはステップS458の肌水分測定/肌撮影処理に移行する。一方、ステップS454において頬近接が検知されたときはステップS460に移行し、表示バックライトを消灯するとともにステップS458に移行する。このように頬近接が検知されたときには何も操作しなくても自動的に肌水分測定処理が行われる。ステップS458の肌水分測定/肌撮影処理の詳細は後述する。なお、ステップS460の表示バックライト消灯は、表示部5を見ることができない状態での省電力の意味があるとともに、後述のよう頬接近による肌水分の自動測定の場合は測定姿勢の調整を省略するので、測定姿勢のバラツキによりバックライトによる肌の照明状態が測定に影響するのを防止する意味がある。これに対し、手動測定の場合は、後述のように肌の撮影も行われるとともにそのフォーカシングなど測定条件が調整されるので、表示バックライトを積極的に肌撮影のための(少なくともCIGS撮像センサの可視光画素用の)補助照明光として利用する。 In step S456, it is checked whether or not a manual operation for measuring skin moisture has been performed. If this operation is detected, the flow proceeds to skin moisture measurement / skin imaging processing in step S458. On the other hand, when cheek proximity is detected in step S454, the process proceeds to step S460, the display backlight is turned off, and the process proceeds to step S458. Thus, when the proximity of the cheek is detected, the skin moisture measurement process is automatically performed without any operation. Details of the skin moisture measurement / skin imaging process in step S458 will be described later. Note that turning off the display backlight in step S460 means power saving when the display unit 5 cannot be seen, and omits adjustment of the measurement posture in the case of automatic measurement of skin moisture by approaching the cheek as described later. Therefore, it is meaningful to prevent the illumination state of the skin by the backlight from affecting the measurement due to variations in the measurement posture. On the other hand, in the case of manual measurement, as described later, the skin is also photographed and the measurement conditions such as focusing are adjusted. Therefore, the display backlight is actively used for skin photographing (at least of the CIGS imaging sensor). Used as auxiliary illumination light (for visible light pixels).

ステップS458の肌水分測定処理が完了するとステップS462で通話中かどうかチェックする。また、ステップS456で肌水分測定手動操作が検知されなかったときもステップS462に移行する。ステップS462で通話中であることが検知された時はステップS454に戻り、以下ステップS462で通話中であることが検知されている限りステップS454からステップS462を繰り返す。これによって通話中の種々の状況変化(例えばテレビ電話中に手動で肌水分測定を行うなど)に対応するとともに、ステップS458の肌水分測定処理を繰り返すことで、測定情報量を増加させる。 When the skin moisture measurement process in step S458 is completed, it is checked in step S462 if a call is in progress. Moreover, also when the skin moisture measurement manual operation is not detected by step S456, it transfers to step S462. When it is detected in step S462 that a call is in progress, the process returns to step S454, and steps S454 to S462 are repeated as long as it is detected in step S462 that a call is in progress. This responds to various situation changes during a call (for example, manually performs skin moisture measurement during a videophone call), and increases the amount of measurement information by repeating the skin moisture measurement process in step S458.

ステップ462で通話中であることが検知されない場合はステップS464に進み、バックライト復活/肌水分表示処理に入る。その詳細は後述する。このように、ステップS458の肌水分測定/肌撮影処理458による情報がある場合は、通話が終わると表示部5にその結果が自動的に表示される。ステップS464のバックライト復活/肌水分表示処理が完了するとステップS466で認証の必要な操作(例えば、メールの閲覧や電話帳情報の変更)が行われたかどうかチェックし、これらの操作が検知されなければステップS468に移行する。一方、ステップS466で認証要操作が検知されたときは、ステップS470を経てステップS468に移行する。ステップS470は、親指静脈認証処理を行うと同時に脈波を行い、脈波および血中酸素飽和度に基づく健康チェックを行う処理であり、認証成功と同時に自動的に健康チェック結果も表示部5に表示される。ステップS468は操作部9によって主電源がオフされたかどうかをチェックしており、主電源オフが検知されなければステップS454に戻り、以下、主電源がオフされない限り、ステップS454からステップS470を繰り返して種々の状況に対応する。一方、ステップS468で主電源のオフが検知されたときは、直ちにフローを終了する。 If it is not detected in step 462 that the call is in progress, the process proceeds to step S464, and the backlight recovery / skin moisture display process is started. Details thereof will be described later. As described above, when there is information by the skin moisture measurement / skin photographing process 458 in step S458, the result is automatically displayed on the display unit 5 when the call is finished. When the backlight restoration / skin moisture display process in step S464 is completed, it is checked in step S466 whether an operation requiring authentication (for example, reading of mail or changing of phone book information) has been performed, and these operations should not be detected. If so, the process proceeds to step S468. On the other hand, when an authentication-required operation is detected in step S466, the process proceeds to step S468 through step S470. Step S470 is a process of performing a pulse wave simultaneously with the thumb vein authentication process and performing a health check based on the pulse wave and blood oxygen saturation, and the health check result is automatically displayed on the display unit 5 upon successful authentication. Is displayed. In step S468, it is checked whether or not the main power supply is turned off by the operation unit 9. If main power off is not detected, the process returns to step S454. Thereafter, unless the main power supply is turned off, steps S454 to S470 are repeated. Corresponds to various situations. On the other hand, if it is detected in step S468 that the main power is off, the flow is immediately terminated.

図49は、図48のステップ458における肌水分測定/肌撮影処理の詳細を示すフローチャートである。フローがスタートすると、まずステップS472において手動操作で肌水分測定/肌撮影処理に入ったのかどうかチェックされる。そして手動操作経由であればステップS474に進み、ピーク波長が940nmのLED111、ピーク波長が850nmのLED115、ピーク波長が750nmのLED119およびピーク波長が660nmのLED203の全てが点灯させられてステップS476に進む。一方、ステップS472で手動操作経由でなかった場合は、頬近接検知経由であることを意味するからステップS478に進み、ピーク波長が940nmのLED111およびピーク波長が850nmのLED115が点灯させられてステップS476に進む。この場合、他のLEDは点灯させられない。 FIG. 49 is a flowchart showing details of the skin moisture measurement / skin imaging process in step 458 of FIG. When the flow starts, first, in step S472, it is checked whether or not the skin moisture measurement / skin photographing process has been entered manually. If it is via manual operation, the process proceeds to step S474, and all of the LED 111 with a peak wavelength of 940 nm, the LED 115 with a peak wavelength of 850 nm, the LED 119 with a peak wavelength of 750 nm, and the LED 203 with a peak wavelength of 660 nm are turned on, and the process proceeds to step S476. . On the other hand, if it is not via manual operation in step S472, it means via cheek proximity detection, so that the process proceeds to step S478, the LED 111 having a peak wavelength of 940 nm and the LED 115 having a peak wavelength of 850 nm are turned on, and step S476 is performed. Proceed to In this case, the other LEDs cannot be turned on.

ステップS476では、CIGS撮像センサ画像の読出しが行われるとともにステップS480に進み、再び手動操作経由かどうかのチェックが行われる。そして手動操作経由であればステップS482に進んで肌画像の撮像が成功して既に記憶が完了かどうかチェックされる。このとき肌画像記憶完でなければステップS484に進み、カラーフィルタとしてそれぞれピーク波長970nmのバンドパスフィルタ109、ピーク波長805nmのバンドパスフィルタ113、ピーク波長760nmのバンドパスフィルタ117およびピーク波長660nmのバンドパスフィルタ201がそれぞれかけられたCIGS撮像センサ25の各画素の画像が抽出される。そしてステップS486で各画素による画像のコントラストを検出するとともにこれらを相互比較してステップS488に進む。 In step S476, the CIGS imaging sensor image is read and the process proceeds to step S480, where it is checked again whether the manual operation has been performed. If it is via manual operation, the process proceeds to step S482, where it is checked whether the skin image has been successfully captured and the storage has already been completed. If the skin image storage is not completed at this time, the process proceeds to step S484, where the bandpass filter 109 having a peak wavelength of 970 nm, the bandpass filter 113 having a peak wavelength of 805 nm, the bandpass filter 117 having a peak wavelength of 760 nm, and the band having a peak wavelength of 660 nm are used. An image of each pixel of the CIGS imaging sensor 25 to which the pass filter 201 is applied is extracted. In step S486, the contrast of the image by each pixel is detected and compared with each other, and the process proceeds to step S488.

ステップS488では、ピーク波長970nmのバンドパスフィルタ109がかけられたCIGS撮像センサ25の画素による画像(以下「970nm画像」と略称。他の画像も同様。)のコントラストが760nm画像のコントラストより大きいかどうかがチェックされる。該当しない場合はステップS490に進み、660nm画像のコントラストが805nm画像のコントラストより大きいかどうかがチェックされる。そしてこれにも該当しない場合は、波長760nmと波長660nmの間の光による像のピントが結像画像CIGS撮像センサに合っている可能性が高いのでステップS492に進み、ステップS484で抽出された各波長の画素による画像情報に基づいて各画素の補間処理が行われる。 In step S488, whether the contrast of the image (hereinafter abbreviated as “970 nm image”, the same applies to other images) of the pixel of the CIGS imaging sensor 25 to which the bandpass filter 109 having the peak wavelength of 970 nm is applied is larger than the contrast of the 760 nm image. Is checked. If not, the process proceeds to step S490, where it is checked whether the contrast of the 660 nm image is greater than the contrast of the 805 nm image. If this is not the case, there is a high possibility that the focus of the image by the light between the wavelength of 760 nm and the wavelength of 660 nm matches the imaged image CIGS imaging sensor, so the process proceeds to step S492, and each of the images extracted in step S484 is displayed. Interpolation processing of each pixel is performed based on the image information of the wavelength pixel.

これに対し、970nm画像のコントラストが760nm画像のコントラストより大きいことがステップS488において検知された場合はステップS494に進み、受話口13において「お肌のチェック中です。携帯電話をもう少し肌に近づけてください。」等のアナウンスを行う指示をしてステップS476に戻る。また、660nm画像のコントラストが805nm画像のコントラストより大きいことがステップS490において検知された場合はステップS496に進み、受話口13において「お肌のチェック中です。携帯電話をもう少し肌から離してください。」等のアナウンスを行う指示をしてステップS476に戻る。以下、ステップS488およびステップS490のいずれにも該当しない状態になるまでステップS476からステップS490およびステップS494ならびにステップS496が繰り返され、携帯電話と肌との距離の変更とCIGS撮像センサ画像の読出しが繰り返される。なお、ステップS488およびステップS490は、簡単のためコントラスト情報そのものを比較するものとして説明したが、実際には、フォーカス状態の実測により実験的に求めた所定のバイアスを付加した上で大小比較を行う。 On the other hand, when it is detected in step S488 that the contrast of the 970 nm image is larger than the contrast of the 760 nm image, the process proceeds to step S494, and “the skin is being checked. Please give an instruction to make an announcement such as “Please,” and the process returns to step S476. If it is detected in step S490 that the contrast of the 660 nm image is greater than the contrast of the 805 nm image, the process proceeds to step S496, and the earpiece 13 says “Skin is being checked. Is instructed to make an announcement, etc., and the process returns to step S476. Thereafter, step S476 to step S490, step S494, and step S496 are repeated until the state does not correspond to either step S488 or step S490, and the change of the distance between the mobile phone and the skin and the reading of the CIGS imaging sensor image are repeated. It is. Note that steps S488 and S490 have been described as comparing the contrast information itself for the sake of simplicity. In practice, however, the magnitude comparison is performed after adding a predetermined bias experimentally obtained by actual measurement of the focus state. .

ステップS492における各画素画像補間処理が完了するとステップS498に進み、頬の肌の可視化画像を作成するとともにこれを記憶する処理がおこなわれる。ステップS492の補間処理により4つの波長により撮像された4つの画像が得られるが、これらは赤および3つの赤外波長による画像なので、ステップS498ではこれら4つの画像を適宜4つの可視光画像に置き換え、目で観察できる「カラー画像」に変換する。このようにして可視化された「カラー」画像は現実の肌の色ではないが、4つの波長により撮像することで肌の健康状態の目視による観察が可能となる。肌の撮像は携帯電話1を頬に極近接させたマクロ撮影となるので、肌の詳細が観察可能な拡大画像が得られる。 When each pixel image interpolation process in step S492 is completed, the process proceeds to step S498, where a visualization image of the cheek skin is created and stored. Four images picked up by four wavelengths are obtained by the interpolation processing in step S492. Since these are images of red and three infrared wavelengths, in step S498, these four images are appropriately replaced with four visible light images. , Convert to a “color image” that can be observed with the eyes. The “color” image visualized in this way is not an actual skin color, but it is possible to visually observe the health state of the skin by imaging with four wavelengths. Since the skin imaging is a macro photography in which the mobile phone 1 is in close proximity to the cheek, an enlarged image in which the details of the skin can be observed is obtained.

次いで、ステップS500では、970nm画素のすべての出力および805nm画素の全て出力がそれぞれ加算され970nmおよび805nmの受光出力の総和がそれぞれ求められる。なお、ステップS480で手動操作経由であることが検知されなかった時は、頬近接検知に基づく自動測定なので肌の画像情報の取得やピント調節は行わず直ちにステップS500に移行する。さらに、ステップS482において既にステップS498による肌画像の作成と記憶が完了していることが検知された場合も直ちにステップS500に移行する。次いでステップS502では、これら970nmおよび805nmの受光出力居基づいて肌水分の演算が行われる。ステップS502では、さらに、図48のステップS454からステップS462の繰り返しを通じてこれまでに演算された肌水分の情報があればそれに対し今回演算された肌水分を累積して統計処理し、平均値を算出する。 Next, in step S500, all the outputs of the 970 nm pixels and all the outputs of the 805 nm pixels are added, respectively, to obtain the sum of the received light outputs of 970 nm and 805 nm, respectively. If it is not detected in step S480 that a manual operation is being performed, the process proceeds to step S500 immediately without acquiring skin image information and adjusting the focus because it is an automatic measurement based on cheek proximity detection. Further, if it is detected in step S482 that the creation and storage of the skin image in step S498 has already been completed, the process immediately proceeds to step S500. Next, in step S502, skin moisture is calculated based on the received light output of 970 nm and 805 nm. In step S502, if there is information on the skin moisture calculated so far through the repetition of steps S454 to S462 in FIG. 48, the skin moisture calculated this time is accumulated and statistically processed to calculate an average value. To do.

次いで、ステップS504ではステップS502で求められた肌水分が20%以上かどうかのチェックが行われる。そして該当しない場合はステップS506に進み、ステップS502で求められた肌水分を記憶してフローを終了する。これに対し、ステップS504で肌水分が20%以上であることが検知されたときはステップS508に進みエラーメッセージを記憶してフローを終了する。通常、肌水分は10〜15%程度であることが知られているので、肌水分が20%以上もあるときは汗の影響などによるエラーと考えられるからである。 Next, in step S504, it is checked whether the skin moisture determined in step S502 is 20% or more. If not, the process proceeds to step S506, the skin moisture obtained in step S502 is stored, and the flow ends. On the other hand, when it is detected in step S504 that the skin moisture is 20% or more, the process proceeds to step S508, an error message is stored, and the flow ends. This is because it is generally known that the skin moisture is about 10 to 15%. Therefore, when the skin moisture is 20% or more, it is considered an error due to the influence of sweat.

図50は、図48のステップS464におけるバックライト復活/肌水分表示処理の詳細を示すフローチャートである。フローがスタートすると、まずステップS512において頬近接検知結果が検知有から検知無へ変化したかどうかチェックされる。これは、携帯電話1を頬から離す動作があったかどうかのチェックに該当する。この変化が検知されないときは直ちにフローを終了するので、この場合、図48のステップS464では何も行われないことになる。 FIG. 50 is a flowchart showing details of the backlight restoration / skin moisture display process in step S464 of FIG. When the flow starts, it is first checked in step S512 whether the cheek proximity detection result has changed from detection to non-detection. This corresponds to checking whether or not there has been an action of moving the mobile phone 1 away from the cheek. If this change is not detected, the flow is immediately terminated. In this case, nothing is performed in step S464 in FIG.

一方、図50のステップS512で該当する頬建設検知の変化が確認されたときはステップS514に進み、図49のステップS506またはステップS508の機能に基づく肌水分の記憶またはエラーメッセージの記憶があるかどうかチェックされる。そしていずれかの記憶があればステップS516で表示バックライトを点灯させるとともに、ステップS518CIGS撮像センサ25を活性化する。さらに、ステップS520では、CIGS撮像センサ25の出力に基づいて表示バックライトの明るさを調整する。これによってバックライトの点灯およびその調整状態が復活する。 On the other hand, when the corresponding change in cheek construction detection is confirmed in step S512 of FIG. 50, the process proceeds to step S514, and whether there is a memory of skin moisture or an error message based on the function of step S506 or step S508 of FIG. Will be checked. If there is any memory, the display backlight is turned on in step S516 and the image sensor 25 in step S518 is activated. In step S520, the brightness of the display backlight is adjusted based on the output of the CIGS imaging sensor 25. As a result, the lighting of the backlight and its adjustment state are restored.

次いで、ステップS522では、肌水分の記憶またはエラーメッセージの記憶を読み出すとともにステップS524で読み出した記憶を表示する。そしてステップS526で操作部による操作があったかどうかチェックする。操作の検知がなければステップS528に進み、ステップS524の機能により肌水分またはエラーメッセージが開始されてから所定時間が経過したかどうかチェックする。所定時間の経過がなければステップS524に戻る。以下ステップS526による操作部操作の検知またはステップS528による所定時間経過が検知されない限りステップS524からステップS528を繰り返し、肌水分またはエラーメッセージの表示を継続する。一方、ステップS528で所定時間経過が検知された時はステップS530に移行し、肌水分またはエラーメッセージの表示を終了してステップS532に進む。また、ステップS526で操作部の操作が検知された時は直ちにステップS530に移行して表示を終了する。一方、ステップS514で肌水分またはエラーメッセージの記憶が検知されないときは直接ステップS532に移行する。このようにして、肌水分の記憶またはエラーメッセージの記憶があるときは携帯電話1を肌から話すことによって自動的にこれらが所定時間だけ表示部5に表示される。 Next, in step S522, the storage of the skin moisture or the storage of the error message is read and the storage read in step S524 is displayed. In step S526, it is checked whether there is an operation by the operation unit. If no operation is detected, the process proceeds to step S528, and it is checked whether a predetermined time has elapsed since the skin moisture or error message was started by the function of step S524. If the predetermined time has not elapsed, the process returns to step S524. Thereafter, unless the operation unit operation is detected in step S526 or the elapse of the predetermined time in step S528 is not detected, steps S524 to S528 are repeated, and the display of skin moisture or an error message is continued. On the other hand, when the elapse of the predetermined time is detected in step S528, the process proceeds to step S530, the display of the skin moisture or the error message is terminated, and the process proceeds to step S532. If operation of the operation unit is detected in step S526, the process immediately proceeds to step S530 and the display is terminated. On the other hand, if the storage of skin moisture or error message is not detected in step S514, the process proceeds directly to step S532. In this manner, when there is a memory of skin moisture or an error message, these are automatically displayed on the display unit 5 for a predetermined time by speaking the mobile phone 1 from the skin.

ステップS532では、図49のステップS498の機能に基づく頬の肌の可視化画像の記憶があるかどうかチェックされる。そして記憶があればステップS534に進み、所定時間内にその再生を行うための操作が行われたかどうかチェックする。所定時間内に操作検知されるとステップS536に進み、頬の肌の可視化画像記憶を読み出すとともにステップS538で読み出した記憶を表示する。そしてステップS540で表示を終了するための操作部による操作があったかどうかチェックする。操作が検知されない場合はステップS538に戻り、以下ステップS540で表示終了操作が検知されない限りステップS538とステップS540を繰り返して表示を継続する。一方、ステップS540で表示終了操作が検知されるとフローは終了となる。なお、ステップS532で頬の肌の可視化画像の記憶があることが検知されなかったとき、またはステップS534で頬の可視化画像の再生操作が所定時間内に検知されなかったときは直ちにフローを終了する。 In step S532, it is checked whether a visualized image of the cheek skin based on the function of step S498 in FIG. 49 is stored. If it is stored, the process proceeds to step S534, and it is checked whether or not an operation for performing the reproduction is performed within a predetermined time. If an operation is detected within a predetermined time, the process proceeds to step S536, where the visualized image memory of the cheek skin is read and the memory read in step S538 is displayed. In step S540, it is checked whether there has been an operation by the operation unit for ending the display. If no operation is detected, the process returns to step S538, and the display is continued by repeating steps S538 and S540 unless a display end operation is detected in step S540. On the other hand, when a display end operation is detected in step S540, the flow ends. Note that if it is not detected in step S532 that a visualized image of the cheek skin is stored, or if a reproduction operation of the visualized image of the cheek is not detected within a predetermined time in step S534, the flow is immediately terminated. .

図51は、携帯電話において実施される本発明の第10実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長を説明するためのグラフである。第10実施例は、基本的には第9実施例と共通の構成を有するので図43の外観図、図44のブロック図および図48から図50のフローを流用して理解することができる。第10実施例が第9実施例と異なるのは、CIGS撮像センサ25のフィルタ構成の詳細および撮像センサ光源部27の構成の詳細である。図51は図45に準じて理解できるものであり、共通する部分には共通する番号を付す。具体的には、図51におけるCIGS撮像センサ25の分光感度101、水の吸光度特性103、酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107は、それぞれ図45におけるものと共通である。 FIG. 51 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS image sensor and the peak wavelength of the image sensor light source section in the tenth embodiment of the present invention implemented in a mobile phone. Since the tenth embodiment basically has the same configuration as the ninth embodiment, it can be understood by using the external view of FIG. 43, the block diagram of FIG. 44, and the flows of FIGS. The tenth embodiment differs from the ninth embodiment in the details of the filter configuration of the CIGS image sensor 25 and the details of the configuration of the image sensor light source unit 27. FIG. 51 can be understood according to FIG. 45, and common portions are denoted by common numbers. Specifically, the spectral sensitivity 101 of the CIGS image sensor 25 in FIG. 51, the water absorbance characteristic 103, the oxygenated hemoglobin absorbance characteristic 105, and the reduced hemoglobin absorbance characteristic 107 are the same as those in FIG.

また、図51の第10実施例においては、970nmをピーク波長とするバンドパスフィルタ109、その光源として用いられるピーク波長が940nmのLED111、805nmをピーク波長とするバンドパスフィルタ113、その高原として用いられるピーク波長が850nmのLED115、660nmをピーク波長とするバンドパスフィルタ201およびその光源として用いられるピーク波長が660nmのLED203も、図45の第9実施例と共通である。但し、760nmをピーク波長とするバンドパスフィルタ117およびその光源として用いられるピーク波長が750nmのLED119が図51の第10実施例では省略されている。 51, the bandpass filter 109 having a peak wavelength of 970 nm, the LED 111 having a peak wavelength of 940 nm used as the light source, the bandpass filter 113 having a peak wavelength of 805 nm, and the plateau thereof are used. The LED 115 having a peak wavelength of 850 nm, the band-pass filter 201 having a peak wavelength of 660 nm, and the LED 203 having a peak wavelength of 660 nm used as the light source thereof are also common to the ninth embodiment of FIG. However, the bandpass filter 117 having a peak wavelength of 760 nm and the LED 119 having a peak wavelength of 750 nm used as its light source are omitted in the tenth embodiment of FIG.

第10実施例では、上記の構成において、静脈認証と脈波検出に用いられる波長域の兼用が行われる。つまり、親指静脈認証のための親指静脈の画像は、このピーク波長660nmのLED203を光源とし、ピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力に基づいて撮像され、これによって還元ヘモグロビンの多い静脈の画像が抽出可能となる。また、参照画像は、ピーク波長850nmのLED115を光源としてピーク波長805nmのバンドパスフィルタ113が配されたCIGS撮像センサの画素出力が利用される。 In the tenth embodiment, the wavelength band used for vein authentication and pulse wave detection is combined in the above configuration. In other words, the thumb vein image for thumb vein authentication is captured based on the pixel output of the CIGS imaging sensor in which the LED 203 having the peak wavelength of 660 nm is used as the light source and the bandpass filter 201 having the peak wavelength of 660 nm is arranged. It is possible to extract a vein image rich in reduced hemoglobin. The reference image uses a pixel output of a CIGS imaging sensor in which an LED 115 having a peak wavelength of 850 nm is used as a light source and a bandpass filter 113 having a peak wavelength of 805 nm is arranged.

第10実施例における、脈波の検出およびこれに基づく血中酸素飽和度の測定は第9実施例と同様にして行われる。つまり、脈波の検出は、ピーク波長660nmのLED203を光源とするピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力、および上記のピーク波長850nmのLED115を光源とするピーク波長805nmのバンドパスフィルタ113が配されたCIGS撮像センサの画素出力に基づいて検出される。 Detection of pulse waves and measurement of blood oxygen saturation based on this in the tenth embodiment are performed in the same manner as in the ninth embodiment. That is, the pulse wave is detected by the pixel output of the CIGS imaging sensor in which the bandpass filter 201 having the peak wavelength of 660 nm is disposed with the LED 203 having the peak wavelength of 660 nm as the light source, and the peak wavelength having the LED 115 having the peak wavelength of 850 nm as the light source. Detection is based on the pixel output of a CIGS imaging sensor provided with a bandpass filter 113 of 805 nm.

図52は、第10実施例におけるCIGS撮像センサ25のカラーフィルタ配列の例である。図52の例においては、ピーク波長660nmの赤透過フィルタR11およびR22、ピーク波長805nmの赤外透過フィルタIRref12、ピーク波長970nmの赤外透過フィルタIR21が図示のように配列され、これを一つの単位として繰り返す配列となっている。これらはそれぞれ、図51におけるバンドパスフィルタ201、バンドパスフィルタ113およびバンドパスフィルタ109に対応する。なお、図52では、ピーク波長660nmのカラーフィルタがかけられた画素の数が他の画素の2倍となっている。これは、後述のようにピーク波長660nmのLEDとして発光強度の小さいものを採用することと対応している。これは、ピーク波長660nmに限るものではなく、一般にコストダウンを目的とし、CIGS撮像センサにおける特定波長域の画素数を増やして感度を高めることにより対応する波長域の光源として発光強度の小さいものを用いることが可能である。 FIG. 52 is an example of the color filter array of the CIGS imaging sensor 25 in the tenth embodiment. In the example of FIG. 52, red transmission filters R11 and R22 having a peak wavelength of 660 nm, an infrared transmission filter IRref12 having a peak wavelength of 805 nm, and an infrared transmission filter IR21 having a peak wavelength of 970 nm are arranged as shown in FIG. It is an array that repeats as These correspond to the bandpass filter 201, the bandpass filter 113, and the bandpass filter 109 in FIG. 51, respectively. In FIG. 52, the number of pixels to which a color filter having a peak wavelength of 660 nm is applied is twice that of other pixels. This corresponds to adopting a LED having a low emission intensity as an LED having a peak wavelength of 660 nm as described later. This is not limited to the peak wavelength of 660 nm, but generally for the purpose of cost reduction, increasing the number of pixels in the specific wavelength region in the CIGS imaging sensor to increase the sensitivity, thereby reducing the light emission intensity of the corresponding wavelength region as the light source. It is possible to use.

図53は、第10実施例に採用可能なLEDの配置の例を示す正面図であり、図47の実施例9の場合と同様、図45に図示したCIGS撮像センサ25とその周囲の撮像センサ光源部27の詳細構成を示している。また、図53において図47と対応する部分には同一番号を付す。図53から明らかなように、CIGS撮像センサのレンズ205の周囲には、ピーク波長940nmのLED111、ピーク波長850nmのLED115およびピーク波長660nmのLED203がそれぞれ一対、レンズ205の光軸を挟んで60度ずつずれた回転対象に設けられている。ピーク波長660nmのLED203は比較的小さく構成できるので、図53のような配置にすると上下方向の実装スペースを小さくすることができる。また、図52に示すようにピーク波長660の波長域を受光するCIGS撮像センサの画素数が倍になっていて感度が高いのでピーク波長660のLEDとして発光強度の小さいものを用いコストダウンを図ることができる。 FIG. 53 is a front view showing an example of the LED arrangement that can be adopted in the tenth embodiment. Like the embodiment 9 in FIG. 47, the CIGS image sensor 25 shown in FIG. 45 and the surrounding image sensors are shown. The detailed structure of the light source part 27 is shown. In FIG. 53, the same reference numerals are given to the portions corresponding to FIG. As is apparent from FIG. 53, a pair of LED 111 having a peak wavelength of 940 nm, an LED 115 having a peak wavelength of 850 nm, and an LED 203 having a peak wavelength of 660 nm are disposed around the lens 205 of the CIGS image sensor at 60 degrees across the optical axis of the lens 205. It is provided on the rotation object shifted by one. Since the LED 203 having a peak wavelength of 660 nm can be made relatively small, the arrangement space shown in FIG. 53 can reduce the vertical mounting space. Further, as shown in FIG. 52, since the number of pixels of the CIGS imaging sensor that receives the wavelength region of the peak wavelength 660 is doubled and the sensitivity is high, the LED having a low emission intensity is used as the LED of the peak wavelength 660 to reduce the cost. be able to.

なお、第10実施例における肌の「カラー」撮像は、660nm画像、805nm画像および970nm画像に基づいて行われる。このときフォーカス検知に関しては、図49のステップS488は「970nm画像>805nm画像?」と読替えるものとする。これによって、805nm画像のコントラストが最も高いときステップS492に移行することになる。 The “color” imaging of the skin in the tenth embodiment is performed based on the 660 nm image, the 805 nm image, and the 970 nm image. At this time, regarding focus detection, step S488 in FIG. 49 is read as “970 nm image> 805 nm image?”. Thus, when the contrast of the 805 nm image is the highest, the process proceeds to step S492.

図54は、携帯電話において実施される本発明の第11実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長を説明するためのグラフである。第11実施例も、基本的には第9実施例と共通の構成を有するので図43の外観図、図44のブロック図および図48から図50のフローを流用して理解することができる。第11実施例についても第9実施例と異なるのは、CIGS撮像センサ25のフィルタ構成の詳細および撮像センサ光源部27の構成の詳細である。なお、図54においても、CIGS撮像センサ25の分光感度101、水の吸光度特性103、酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107は、それぞれ図45におけるものと共通である。 FIG. 54 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS imaging sensor and the peak wavelength of the imaging sensor light source section in the eleventh embodiment of the present invention implemented in the mobile phone. Since the eleventh embodiment basically has the same configuration as the ninth embodiment, it can be understood by using the external view of FIG. 43, the block diagram of FIG. 44, and the flows of FIGS. The eleventh embodiment is different from the ninth embodiment in the details of the filter configuration of the CIGS image sensor 25 and the details of the configuration of the image sensor light source unit 27. Also in FIG. 54, the spectral sensitivity 101 of the CIGS imaging sensor 25, the water absorbance characteristic 103, the oxygenated hemoglobin absorbance characteristic 105, and the reduced hemoglobin absorbance characteristic 107 are the same as those in FIG.

図54の第11実施例では、970nmをピーク波長とするバンドパスフィルタ109、その光源として用いられるピーク波長が940nmのLED111、660nmをピーク波長とするバンドパスフィルタ201およびその光源として用いられるピーク波長が660nmのLED203は図45の第9実施例と共通である。そして、第9実施例に用いられていた805nmをピーク波長とするバンドパスフィルタ113、その高原として用いられるピーク波長が850nmのLED115、760nmをピーク波長とするバンドパスフィルタ117およびその光源として用いられるピーク波長が750nmのLED119が図54の第11実施例では省略されている。これに代わり、900nmをピーク波長とするバンドパスフィルタ207が追加されている。そしてその光源としては、ピーク波長が940nmのLED111が兼用されている。さらに、可視光の緑色領域の540nmをピーク波長とするバンドパスフィルタ209およびその光源として用いられるピーク波長が550nmのLED211が追加されている。 54, the bandpass filter 109 having a peak wavelength of 970 nm, the LED 111 having a peak wavelength of 940 nm used as its light source, the bandpass filter 201 having a peak wavelength of 660 nm, and the peak wavelength used as its light source. The LED 203 having a wavelength of 660 nm is common to the ninth embodiment of FIG. The band-pass filter 113 having a peak wavelength of 805 nm used in the ninth embodiment, the LED 115 having a peak wavelength of 850 nm used as its plateau, the band-pass filter 117 having a peak wavelength of 760 nm, and the light source thereof. The LED 119 having a peak wavelength of 750 nm is omitted in the eleventh embodiment shown in FIG. Instead, a bandpass filter 207 having a peak wavelength of 900 nm is added. As the light source, the LED 111 having a peak wavelength of 940 nm is also used. Further, a band pass filter 209 having a peak wavelength of 540 nm in the green region of visible light and an LED 211 having a peak wavelength of 550 nm used as the light source are added.

第11実施例では上記の構成において、肌水分の測定は、ピーク波長970nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力と、ピーク波長900nmのバンドパスフィルタ207が配されたCIGS撮像センサの画素出力が用いられる。そして両者の光源としてピーク波長940nmのLED111が兼用される。一方、第11実施例における、静脈認証および脈波の検出と血中酸素飽和度の測定は、ピーク波長660nmのLED203を光源とし、ピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力と、ピーク波長940nmのLED115を光源としてピーク波長900nmのバンドパスフィルタ207が配されたCIGS撮像センサの画素出力が用いられる。 In the eleventh embodiment, in the above-described configuration, skin moisture is measured by the CIGS imaging sensor provided with the bandpass filter 201 having the peak wavelength of 970 nm and the CIGS imaging having the bandpass filter 207 having the peak wavelength of 900 nm. The pixel output of the sensor is used. The LED 111 having a peak wavelength of 940 nm is also used as both light sources. On the other hand, in the eleventh embodiment, vein authentication, pulse wave detection, and blood oxygen saturation measurement are performed using a CIGS imaging sensor in which the LED 203 having a peak wavelength of 660 nm is used as a light source and the bandpass filter 201 having a peak wavelength of 660 nm is disposed. A pixel output and a pixel output of a CIGS imaging sensor in which a bandpass filter 207 having a peak wavelength of 900 nm is disposed using an LED 115 having a peak wavelength of 940 nm as a light source are used.

なお、第11実施例における肌の撮像は、基本的に緑領域の540nm画像および赤領域の660nm画像に基づいた2波長の可視光による簡易カラー画像として撮像される。このときフォーカス検知に関しては、図49のステップS488は「970nm画像>660nm画像?」、ステップS490は「900nm画像>540nm画像?」にそれぞれ読替えるものとする。さらにこのままでは、ステップS488およびステップS490のいずれにも該当しない場合は、波長660nmと波長900nmの間の光による像のピントが結像画像CIGS撮像センサに合っている状態を検知してしまうことになるので、ピント位置を波長660nmと波長900nmの中間である700nm程度から赤と緑の中間である600nm程度にシフトすることを見込んだバイアスをステップS488およびステップS490に付加した上で大小比較を行う。 Note that skin imaging in the eleventh embodiment is basically performed as a simple color image with two wavelengths of visible light based on a 540 nm image in the green region and a 660 nm image in the red region. At this time, regarding focus detection, step S488 in FIG. 49 is read as “970 nm image> 660 nm image?”, And step S490 is read as “900 nm image> 540 nm image?”. Further, if neither of step S488 and step S490 is applicable, the state where the focus of the image by the light between the wavelength of 660 nm and the wavelength of 900 nm is in alignment with the formed image CIGS image sensor is detected. Therefore, a magnitude comparison is performed after adding a bias that is expected to shift the focus position from about 700 nm, which is the middle of the wavelength of 660 nm and 900 nm, to about 600 nm, which is the middle of red and green, to Step S488 and Step S490. .

以上これによって、ピント位置が可視域の波長540nmと波長660nmの間の光による像のピントが結像画像CIGS撮像センサに合っている状態を検知してステップS492に移行することができる。また、第11実施例の場合、撮像される像自体が可視光像であって頬可視化画像作成処理は不要なので、図49のステップS498は、基本的には、単なる「画像記憶処理」に読替えて理解することができる。なお、第11実施例における肌の撮像においても、赤外の900nm画像および970画像を補助的に加味することができる。この場合は、図49のステップS498において「頬肌可視化画像作成処理」が必要となる。 As described above, it is possible to detect a state where the focus of the image by the light whose focus position is between the visible wavelength 540 nm and the wavelength 660 nm is in alignment with the formed image CIGS imaging sensor, and to proceed to step S492. In the case of the eleventh embodiment, since the image to be picked up itself is a visible light image and the cheek visualized image creation process is unnecessary, step S498 in FIG. 49 is basically replaced with a simple “image storage process”. Can be understood. It should be noted that the infrared 900 nm image and the 970 image can be supplementarily added to the skin imaging in the eleventh embodiment. In this case, “cheek skin visualized image creation processing” is required in step S498 of FIG.

図55は、第11実施例におけるCIGS撮像センサ25のカラーフィルタ配列の例である。図55の例においては、ピーク波長900nmの赤外透過フィルタIRref11、ピーク波長540nmの緑透過フィルタG12、ピーク波長970nmの赤外透過フィルタIR21およびピーク波長660nmの赤透過フィルタR22が図示のように配列され、これを一つの単位として繰り返す配列となっている。これらはそれぞれ、図54におけるバンドパスフィルタ207、バンドパスフィルタ209、バンドパスフィルタ109およびバンドパスフィルタ201に対応する。 FIG. 55 is an example of the color filter array of the CIGS imaging sensor 25 in the eleventh embodiment. In the example of FIG. 55, an infrared transmission filter IRref11 having a peak wavelength of 900 nm, a green transmission filter G12 having a peak wavelength of 540 nm, an infrared transmission filter IR21 having a peak wavelength of 970 nm, and a red transmission filter R22 having a peak wavelength of 660 nm are arranged as illustrated. It is an array that repeats this as one unit. These correspond to the bandpass filter 207, the bandpass filter 209, the bandpass filter 109, and the bandpass filter 201 in FIG.

図56は、第11実施例に採用可能なLEDの配置の例を示す正面図であり、図47の実施例9の場合と同様、図45に図示したCIGS撮像センサ25とその周囲の撮像センサ光源部27の詳細構成を示している。また、図56において図54と対応する部分には同一番号を付す。図56から明らかなように、CIGS撮像センサのレンズ205の周囲には、ピーク波長940nmのLED111が一対、レンズ205の光軸を挟んで設けられている。また、LED111の間には、ピーク波長660nmのLED203およびピーク波長550nmのLED211がそれぞれ6個ずつ交互にレンズ205の光軸を挟んで回転対象に設けられている。このように、ピーク波長660nmのLED203およびピーク波長550nmのLED209は面積が比較的小さく個々の出力が小さいものに分割して設けられている。このような配置は、図53の第10実施例と同様、上下方向の実装スペースを小さくすることができる。 FIG. 56 is a front view showing an example of the LED arrangement that can be adopted in the eleventh embodiment. As in the case of the ninth embodiment in FIG. 47, the CIGS image sensor 25 shown in FIG. The detailed structure of the light source part 27 is shown. In FIG. 56, the same reference numerals are given to the portions corresponding to FIG. As is clear from FIG. 56, a pair of LEDs 111 having a peak wavelength of 940 nm are provided around the lens 205 of the CIGS imaging sensor with the optical axis of the lens 205 interposed therebetween. In addition, between the LEDs 111, six LEDs 203 having a peak wavelength of 660 nm and six LEDs 211 having a peak wavelength of 550 nm are alternately provided with the optical axis of the lens 205 interposed therebetween. As described above, the LED 203 having the peak wavelength of 660 nm and the LED 209 having the peak wavelength of 550 nm are divided into those having a relatively small area and small individual outputs. Such an arrangement can reduce the vertical mounting space as in the tenth embodiment of FIG.

上記の第11実施例では、図54に示すように、970nmをピーク波長とするバンドパスフィルタ109と900nmをピーク波長とするバンドパスフィルタ207においてピーク波長が940nmのLED111が兼用されている。これは、CIGS撮像センサの量子効率が高く感度が良いことに寄ったものである。しかしながら第11実施例の変形実施例としては、970nmをピーク波長とするバンドパスフィルタ109と900nmをピーク波長とするバンドパスフィルタ207のためにそれぞれ専用のピーク波長900nmのLEDおよびピーク波長950nmのLED用いるよう構成することも可能である。この場合、図55のカラーフィルタ配列はそのまま採用できるが、LEDの種類が4つに増えるので、例えば、図47における第9実施例のような実装配置を採用することができる。 In the eleventh embodiment, as shown in FIG. 54, the bandpass filter 109 having a peak wavelength of 970 nm and the bandpass filter 207 having a peak wavelength of 900 nm share the LED 111 having a peak wavelength of 940 nm. This is because the CIGS imaging sensor has high quantum efficiency and high sensitivity. However, as a modified example of the eleventh embodiment, a dedicated peak wavelength 900 nm LED and a peak wavelength 950 nm LED are used for the band pass filter 109 having a peak wavelength of 970 nm and the band pass filter 207 having a peak wavelength of 900 nm, respectively. It can also be configured to be used. In this case, although the color filter arrangement of FIG. 55 can be employed as it is, the number of types of LEDs increases to four, and thus, for example, a mounting arrangement as in the ninth embodiment in FIG. 47 can be employed.

図57は、携帯電話において実施される本発明の第12実施例におけるCIGS撮像センサのフィルタの分光透過特性および撮像センサ光源部のピーク波長を説明するためのグラフである。第12実施例も、基本的には第9実施例と共通の構成を有するので図43の外観図、図44のブロック図および図48から図50のフローを流用して理解することができる。第12実施例についても第9実施例と異なるのは、CIGS撮像センサ25のフィルタ構成の詳細および撮像センサ光源部27の構成の詳細である。なお、図57においても、CIGS撮像センサ25の分光感度101、水の吸光度特性103、酸化ヘモグロビンの吸光度特性105および還元ヘモグロビンの吸光度特性107は、それぞれ図45におけるものと共通である。これに加え、図57(A)では、図41、図42と同様の地表における太陽光の分光放射照度834が加えられている。 FIG. 57 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS image sensor and the peak wavelength of the image sensor light source section in the twelfth embodiment of the present invention implemented in a mobile phone. Since the twelfth embodiment basically has the same configuration as the ninth embodiment, it can be understood by using the external view of FIG. 43, the block diagram of FIG. 44, and the flows of FIGS. The twelfth embodiment is different from the ninth embodiment in the details of the filter configuration of the CIGS image sensor 25 and the details of the configuration of the image sensor light source unit 27. Also in FIG. 57, the spectral sensitivity 101 of the CIGS imaging sensor 25, the water absorbance characteristic 103, the oxygenated hemoglobin absorbance characteristic 105, and the reduced hemoglobin absorbance characteristic 107 are the same as those in FIG. In addition, in FIG. 57 (A), the spectral irradiance 834 of sunlight on the ground surface similar to FIGS. 41 and 42 is added.

図57の第12実施例では、660nmをピーク波長とするバンドパスフィルタ201およびその光源として用いられるピーク波長が660nmのLED203が設けられるとともに、805nmをピーク波長とするバンドパスフィルタ113、900nmをピーク波長とするバンドパスフィルタ207およびこれらの光源に兼用されるピーク波長が850nmのLED115が設けられる。図57の第12実施例では、さらに、1200nmの水の吸光度の山に合わせたピーク波長1200nmのバンドパスフィルタ213、その光源としてのピーク波長1200nmのLED215、波長1100nm近辺のソーラーブラインド領域であって水の吸光度が低くなっている波長に合わせたピーク波長1120nmのバンドパスフィルタ217およびその光源としてのピーク波長1070nmのLED219が設けられている。 In the twelfth embodiment of FIG. 57, a bandpass filter 201 having a peak wavelength of 660 nm and an LED 203 having a peak wavelength of 660 nm used as the light source are provided, and a bandpass filter 113 having a peak wavelength of 805 nm and peaks at 900 nm. A band-pass filter 207 having a wavelength and an LED 115 having a peak wavelength of 850 nm that is also used for these light sources are provided. The twelfth embodiment of FIG. 57 further includes a bandpass filter 213 having a peak wavelength of 1200 nm matched to a peak of water absorbance of 1200 nm, an LED 215 having a peak wavelength of 1200 nm as its light source, and a solar blind region in the vicinity of a wavelength of 1100 nm. A band-pass filter 217 having a peak wavelength of 1120 nm matched to a wavelength at which the absorbance of water is low, and an LED 219 having a peak wavelength of 1070 nm as the light source are provided.

第12実施例では、上記の構成に基づき、水の吸光度の大きいピーク波長1200nmのバンドパスフィルタ213が配されたCIGS撮像センサの画素出力と、水の吸光度が小さくソーラーブラインドになっているピーク波長1120nmのバンドパスフィルタ217が配されたCIGS撮像センサの画素出力とに基づいて肌水分の測定が行われる。このようにして参照波長の情報を太陽光の影響なしに取得することができる。一方、第12実施例における静脈認証および脈波の検出と血中酸素飽和度の測定は、ピーク波長660nmのバンドパスフィルタ201が配されたCIGS撮像センサの画素出力、ピーク波長805nmのバンドパスフィルタ113が配されたCIGS撮像センサの画素出力およびピーク波長900nmのバンドパスフィルタ207が配されたCIGS撮像センサの画素出力が用いられる。このように3波長を用いることにより、静脈認証および脈波の検出のための情報が豊かになる。 In the twelfth embodiment, based on the above configuration, the pixel output of the CIGS imaging sensor in which the bandpass filter 213 having a peak wavelength of 1200 nm having a large water absorbance is arranged, and the peak wavelength at which the water absorbance is small and a solar blind is formed. Skin moisture is measured based on the pixel output of the CIGS imaging sensor provided with the 1120 nm band-pass filter 217. In this way, reference wavelength information can be acquired without the influence of sunlight. On the other hand, the vein authentication, pulse wave detection and blood oxygen saturation measurement in the twelfth embodiment are performed for the pixel output of the CIGS imaging sensor provided with the bandpass filter 201 having a peak wavelength of 660 nm and the bandpass filter having a peak wavelength of 805 nm. The pixel output of the CIGS imaging sensor in which 113 is arranged and the pixel output of the CIGS imaging sensor in which the bandpass filter 207 having a peak wavelength of 900 nm is arranged are used. By using three wavelengths in this way, information for vein authentication and pulse wave detection is enriched.

なお、第12実施例における肌の撮像は、660nm画像、805nm画像、900nm画像、1120nm画像および1200nm画像の5波長域にて行われる。このときフォーカス検知に関しては、図49のステップS488は「1200nm画像>805nm画像?」、ステップS490は「1120nm画像>660nm画像?」にそれぞれ読替えるものとする。これによって、ピント位置が波長900nm付近の光による像のピントが結像画像CIGS撮像センサに合っている状態を検知してステップS492に移行することができる。 Note that skin imaging in the twelfth embodiment is performed in five wavelength regions of a 660 nm image, a 805 nm image, a 900 nm image, a 1120 nm image, and a 1200 nm image. At this time, regarding focus detection, step S488 in FIG. 49 is read as “1200 nm image> 805 nm image?”, And step S490 is read as “1120 nm image> 660 nm image?”. As a result, it is possible to detect a state where the focus position of the image by the light having a wavelength near 900 nm is in alignment with the formed image CIGS imaging sensor, and to proceed to step S492.

図58は、第12実施例におけるCIGS撮像センサ25のカラーフィルタ配列の例である。図58の例においては、ピーク波長1120nmの赤外透過フィルタmIRref11およびmIRref33、ピーク波長805nmの赤外過フィルタsIRref12、sIRref14、sIRref32およびsIRref34、ピーク波長900nmの赤外透過フィルタcIRref13およびcIRref31、ピーク波長1200の赤外透過フィルタmIR21、mIR23、mIR41およびmIR43、並びにピーク波長660nmの赤透過フィルタR22、R24、R42およびR44が図示のように配列され、これら12画素を一つの単位として繰り返す配列となっている。これらはそれぞれ、図57におけるバンドパスフィルタ217、バンドパスフィルタ113、バンドパスフィルタ217、バンドパスフィルタ201およびバンドパスフィルタ213に対応する。 FIG. 58 is an example of the color filter array of the CIGS imaging sensor 25 in the twelfth embodiment. In the example of FIG. 58, infrared transmission filters mIRref11 and mIRref33 having a peak wavelength of 1120 nm, infrared overfilters sIRref12, sIRref14, sIRref32 and sIRref34 having a peak wavelength of 805 nm, infrared transmission filters cIRref13 and cIRref31 having a peak wavelength of 900 nm, and a peak wavelength of 1200 Infrared transmission filters mIR21, mIR23, mIR41 and mIR43, and red transmission filters R22, R24, R42 and R44 having a peak wavelength of 660 nm are arranged as shown in the figure, and these 12 pixels are repeated as one unit. . These correspond to the bandpass filter 217, the bandpass filter 113, the bandpass filter 217, the bandpass filter 201, and the bandpass filter 213 in FIG. 57, respectively.

図59は、第12実施例に採用可能なLEDの配置の例を示す正面図であり、図45に図示したCIGS撮像センサ25とその周囲の撮像センサ光源部27の詳細構成を示している。また、図59において図57と対応する部分には同一番号を付す。図57から明らかなように、CIGS撮像センサのレンズ205の周囲には、ピーク波長850nmのLED115、ピーク波長1200nmのLED215およびピーク波長1070nmのLED217がそれぞれ一対、レンズ205の光軸を挟んで60度ずつずれた回転対象に設けられている。一方、ピーク波長660nmのLED203については、レンズ205の光軸周りに60度ずつずれてLED115、LED215およびLED217の隙間に6個、回転対象に配されている。ピーク波長660nmのLED203は比較的小さく構成できるのでこのような実装が可能である。また、個数を増やすことで、個々の発光強度が小さいLEDを用いることが可能となりコストダウンを図ることができる。なお、光軸周りの対象性を問題としない設計の場合は、LEDの個数を各波長についてそれぞれ一個に減少させることもできる。 FIG. 59 is a front view showing an example of the arrangement of LEDs that can be employed in the twelfth embodiment, and shows the detailed configuration of the CIGS image sensor 25 shown in FIG. 45 and the image sensor light source 27 around it. In FIG. 59, the same reference numerals are given to the portions corresponding to FIG. As is clear from FIG. 57, a pair of LED 115 having a peak wavelength of 850 nm, LED 215 having a peak wavelength of 1200 nm, and LED 217 having a peak wavelength of 1070 nm are disposed around the lens 205 of the CIGS image sensor, and the optical axis of the lens 205 is sandwiched by 60 degrees. It is provided on the rotation object shifted by one. On the other hand, six LEDs 203 having a peak wavelength of 660 nm are arranged on the object to be rotated by being shifted by 60 degrees around the optical axis of the lens 205 and in the gaps between the LEDs 115, 215, and 217. Since the LED 203 having a peak wavelength of 660 nm can be configured to be relatively small, such mounting is possible. Further, by increasing the number, it is possible to use an LED having a small light emission intensity, thereby reducing the cost. In the case of a design in which the objectivity around the optical axis is not a problem, the number of LEDs can be reduced to one for each wavelength.

上記の第12実施例では、図57に示すように、805nmをピーク波長とするバンドパスフィルタ113と900nmをピーク波長とするバンドパスフィルタ207においてピーク波長が850nmのLED115が兼用されている。これは、CIGS撮像センサの量子効率が高く感度が良いことに寄ったものである。しかしながら第12実施例の変形実施例としては、805nmをピーク波長とするバンドパスフィルタ113と900nmをピーク波長とするバンドパスフィルタ207のためにそれぞれ専用のピーク波長800nmのLEDおよびピーク波長900nmのLED用いるよう構成することも可能である。この場合、図55のカラーフィルタ配列はそのまま採用できるが、LEDの種類も5つに増えるので図59を少し変形し、大面積を割り当てるLEDの対を60度ずつではなく46度ずつずらして4種類配置するとともにその隙間に5種目のLEDを8個配置するようにする。 In the twelfth embodiment, as shown in FIG. 57, the bandpass filter 113 having a peak wavelength of 805 nm and the bandpass filter 207 having a peak wavelength of 900 nm share the LED 115 having a peak wavelength of 850 nm. This is because the CIGS imaging sensor has high quantum efficiency and high sensitivity. However, as a modified embodiment of the twelfth embodiment, a dedicated peak wavelength 800 nm LED and a peak wavelength 900 nm LED are used for the band pass filter 113 having a peak wavelength of 805 nm and the band pass filter 207 having a peak wavelength of 900 nm, respectively. It can also be configured to be used. In this case, the color filter arrangement of FIG. 55 can be used as it is, but since the number of types of LEDs increases to five, FIG. 59 is slightly modified to shift the LED pairs to which a large area is allocated by 46 degrees instead of 60 degrees. In addition to the type arrangement, eight fifth-type LEDs are arranged in the gap.

図60は、携帯電話において実施される本発明の第13実施例におけるフィルタの分光透過特性および撮像センサ光源部のピーク波長を説明するためのグラフである。第13実施例も、基本的には第9実施例と共通の構成を有するので図43の外観図、図44のブロック図および図48から図50のフローを流用して理解することができる。第13実施例が他の実施例と異なるのは撮像センサである。つまり、第9実施例から第12実施例までの携帯電話における肌水分測定用等の撮像センサがCIGS撮像センサで構成されていたのに対し、第13実施例の撮像センサはシリコン撮像センサである。従って、図60においては撮像センサの分光感度(量子効率)として図3(A)のCIGS撮像センサのものではなく、図3(B)に対応するシリコン撮像センサの分光感度(量子効率)221が概念的に図示されている。なお、分光感度221はあくまで相対的な概念を示すもので、縦軸の絶対的な値には意味はない。 FIG. 60 is a graph for explaining the spectral transmission characteristics of the filter and the peak wavelength of the imaging sensor light source section in the thirteenth embodiment of the present invention implemented in a cellular phone. The thirteenth embodiment basically has the same configuration as that of the ninth embodiment, and can be understood by using the external view of FIG. 43, the block diagram of FIG. 44, and the flows of FIGS. 48 to 50. The thirteenth embodiment is different from the other embodiments in the image sensor. That is, the imaging sensor for skin moisture measurement and the like in the mobile phones from the ninth embodiment to the twelfth embodiment is composed of a CIGS imaging sensor, whereas the imaging sensor of the thirteenth embodiment is a silicon imaging sensor. . Therefore, in FIG. 60, the spectral sensitivity (quantum efficiency) of the image sensor is not that of the CIGS image sensor of FIG. 3A, but the spectral sensitivity (quantum efficiency) 221 of the silicon image sensor corresponding to FIG. Conceptually illustrated. Note that the spectral sensitivity 221 merely indicates a relative concept, and the absolute value on the vertical axis has no meaning.

図60に示した第13実施例は上記の撮像センサの分光感度を除き、第10実施例と共通の構造を持つ。従って、撮像センサのカラーフィルタ配列は基本的に図52に示したものが採用できる。また、光源としてのLEDの配置も基本的に図53の例が採用可能である。第13実施例はシリコン撮像センサを採用しているため、全体的な量子効率が低いとともに、ピーク波長790nmの感度もやや不充分である。しかしながら、設計条件によっては第13実施例のようにシリコン撮像センサを採用することによりコストダウンを図ることが可能である。なお、ピーク波長790nmの感度不足を補うためには、図52のカラーフィルタ配列を若干変更し、2倍の画素数になる波長域を660nmから970nmに変更することができる。また、図53のLEDの実装についても、光量不足となる可能性のある940nmLEDの数を他のLEDよりも増やすよう変更することが可能である。 The thirteenth embodiment shown in FIG. 60 has the same structure as the tenth embodiment except for the spectral sensitivity of the image sensor. Therefore, the color filter array of the image sensor can basically adopt the one shown in FIG. Also, the arrangement of LEDs as the light source can basically adopt the example of FIG. Since the thirteenth embodiment employs a silicon imaging sensor, the overall quantum efficiency is low, and the sensitivity at the peak wavelength of 790 nm is slightly insufficient. However, depending on the design conditions, it is possible to reduce the cost by employing a silicon imaging sensor as in the thirteenth embodiment. In order to compensate for the lack of sensitivity at the peak wavelength of 790 nm, the color filter array in FIG. 52 can be slightly changed, and the wavelength region where the number of pixels is doubled can be changed from 660 nm to 970 nm. Also, with regard to the mounting of the LED of FIG. 53, it is possible to change the number of 940 nm LEDs that may be insufficient in light quantity to be larger than other LEDs.

上記本発明の種々の特徴は上記の実施例に限るものではなく、他の種々の実施が可能である。例えば、上記実施例においては肌水分測定機能が携帯電話に組み込まれており、それによる種々の利点があるが、より一般的には専用の測定装置として構成することもできるし、他の装置に組み込んで実施することもできる。また、携帯電話に組み込む場合においても、図43および図44における赤外光発光部19および赤外光近接センサ21を省略し、これらが担っていた肌近接検知機能をCIGS撮像センサに兼ねさせることもできる。このとき、操作時の指の接近を誤検知することを防止するため携帯電話1に加速度センサを設け、重力加速度の検知によって携帯電話1の姿勢を検知する。これによって、携帯電話1が立てられていることを加速度センサが検知した状態においてCIGS撮像センサへの近接が検知されたときのみ肌近接検知とするようにし、携帯電話1が水平に近い状態で操作部9が操作されている状態で指が撮像センサに近接しても表示部5のバックライトが消されないよう構成する。 The various features of the present invention are not limited to the above-described embodiments, and various other implementations are possible. For example, in the above embodiment, the skin moisture measuring function is incorporated in the mobile phone, and there are various advantages. However, more generally, it can be configured as a dedicated measuring device, It can also be implemented. Further, even when incorporated in a mobile phone, the infrared light emitting unit 19 and the infrared light proximity sensor 21 in FIGS. 43 and 44 are omitted, and the skin proximity detection function that they are responsible for is also used as the CIGS imaging sensor. You can also. At this time, an acceleration sensor is provided in the mobile phone 1 in order to prevent erroneous detection of the approach of a finger during operation, and the posture of the mobile phone 1 is detected by detecting gravitational acceleration. Thus, skin proximity detection is performed only when proximity to the CIGS imaging sensor is detected in a state where the acceleration sensor detects that the mobile phone 1 is standing, and the mobile phone 1 is operated in a state where the mobile phone 1 is almost horizontal. The backlight of the display unit 5 is not turned off even if the finger is close to the imaging sensor while the unit 9 is being operated.

本発明は、肌水分測定装置等の生体情報測定装置に摘要することができる。 The present invention can be applied to a biological information measuring device such as a skin moisture measuring device.

25 光電変換部
39 処理部
27 光源部
111、115、119、203、211、215、219 発光ダイオード
39 判定手段
5 表示部
43 バックライト
39 判定部
19、21 近接検知部
1 携帯電話
39 制御部
25 Photoelectric conversion unit 39 Processing unit 27 Light source unit 111, 115, 119, 203, 211, 215, 219 Light-emitting diode 39 Determination unit 5 Display unit 43 Backlight 39 Determination unit 19, 21 Proximity detection unit 1 Mobile phone 39 Control unit

Claims (21)

それぞれ可視光域および赤外光域において60%以上の量子効率を有し複数の波長域の光を検知する光電変換部と、前記光線変換部により検知される受光情報に基づいて生体情報を取得する処理部とを有することを特徴とする生体情報取得装置。 A photoelectric conversion unit that has a quantum efficiency of 60% or more in each of the visible light region and the infrared light region, and detects biological light based on light reception information detected by the light beam conversion unit. A biological information acquisition apparatus. 前記光電変換部は、複数の波長域の光による像を撮像するため規則的に配列された複数の受光部を有することを特徴とする請求項1記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 1, wherein the photoelectric conversion unit includes a plurality of light receiving units regularly arranged to capture images of light in a plurality of wavelength ranges. 光源として発光ダイオードを用いるとともに、一つのピーク波長の発光ダイオードを前記光電変換部における複数の波長域の検知の光源とすることを特徴とする請求項1または2記載の生体情報取得装置。 3. The biological information acquisition apparatus according to claim 1, wherein a light emitting diode is used as a light source, and a light emitting diode having one peak wavelength is used as a light source for detecting a plurality of wavelength ranges in the photoelectric conversion unit. 前記光電変換部により肌水分の情報を取得することを特徴とする請求項1から3のいずれかに記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 1, wherein skin photoelectric information is acquired by the photoelectric conversion unit. 上記肌水分の情報は前記光電変換部により非接触で取得されるとともに、取得された肌水分が通常測定範囲外にあることを判定する判定手段を有することを特徴とする請求項4記載の生体情報取得装置。 The living body according to claim 4, wherein the skin moisture information is acquired by the photoelectric conversion unit in a non-contact manner, and has a determination unit that determines that the acquired skin moisture is outside a normal measurement range. Information acquisition device. 前記光電変換部により静脈パターンの情報を取得することを特徴とする請求項4または5記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 4 or 5, wherein information on a vein pattern is acquired by the photoelectric conversion unit. 前記光電変換部により脈波の情報を取得することを特徴とする請求項4から6のいずれかに記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 4, wherein pulse wave information is acquired by the photoelectric conversion unit. 前記光電変換部により取得される脈波の情報に基づいて血中酸素飽和度を取得することを特徴とする請求項7記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 7, wherein blood oxygen saturation is acquired based on pulse wave information acquired by the photoelectric conversion unit. 肌の撮像を行うことを特徴とする請求項4から8のいずれかに記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 4, wherein skin imaging is performed. 取得した生体情報を表示する表示部を有し、前記光電変換部の出力により前記表示部の表示明るさを調節することを特徴とする請求項1から9のいずれかに記載の生体情報取得装置。 The biometric information acquisition apparatus according to claim 1, further comprising a display unit that displays the acquired biometric information, wherein the display brightness of the display unit is adjusted by an output of the photoelectric conversion unit. . 前記表示部は表示の明るさを調節するバックライトを有し、前記光電変換部の出力により前記バックライトを制御することを特徴とする請求項10記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 10, wherein the display unit includes a backlight that adjusts display brightness, and the backlight is controlled by an output of the photoelectric conversion unit. 前記複数の波長域の一つは太陽光が地表に到達しない領域に設定されることを特徴とする請求項1から11のいずれかに記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 1, wherein one of the plurality of wavelength ranges is set in a region where sunlight does not reach the ground surface. 前記複数の波長域の光による複数の波長域の像に基づき対象物へのピント状態を判定する判定部を有することを特徴とする請求項2記載の生体情報取得装置。 The biological information acquisition apparatus according to claim 2, further comprising: a determination unit that determines a focus state with respect to the object based on the images of the plurality of wavelength regions by the light of the plurality of wavelength regions. 撮像された像を表示するとともにバックライトを備えた表示部を有し、前記光電変換部により像を撮像するときは対象物を照明するために前記バックライトを点灯させることを特徴とする請求項2記載の生体情報取得装置。 A display unit that displays a captured image and includes a backlight, and when the image is captured by the photoelectric conversion unit, the backlight is turned on to illuminate an object. 2. The biological information acquisition device according to 2. 検知のための光源部と、前記光電変換部が対象物に近接しているかどうかを検知する近接検知部とを有し、撮像が行われないときに前記近接検知部が対象物の近接を検知すると前記光源部を点灯させるとともに前記バックライトを消灯させることを特徴とする請求項14記載の生体情報取得装置。 It has a light source unit for detection and a proximity detection unit that detects whether the photoelectric conversion unit is close to the object, and the proximity detection unit detects the proximity of the object when imaging is not performed The biological information acquisition apparatus according to claim 14, wherein the light source unit is turned on and the backlight is turned off. 携帯電話として構成されることを特徴とする請求項1から15のいずれかに記載の生体情報取得装置。 The biological information acquiring apparatus according to claim 1, wherein the biological information acquiring apparatus is configured as a mobile phone. 複数の波長域の光を検知する光電変換部を有し、前記光線変換部により検知される受光情報に基づいて肌水分の情報および静脈パターン情報を取得することを特徴とする生体情報取得装置。 A biological information acquisition apparatus comprising a photoelectric conversion unit that detects light in a plurality of wavelength ranges, and acquires skin moisture information and vein pattern information based on light reception information detected by the light beam conversion unit. 前記光電変換部により健康情報を取得することを特徴とする請求項17記載の生体情報取得装置。 18. The biological information acquisition apparatus according to claim 17, wherein health information is acquired by the photoelectric conversion unit. 複数の波長域の光を検知する光電変換部と、前記光線変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示する表示部と、前記光電変換部の出力により前記表示部の表示明るさを調節する制御部とを有することを特徴とする生体情報取得装置。 A photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the light beam conversion unit, a display unit that displays the acquired biological information, and the photoelectric conversion And a control unit that adjusts the display brightness of the display unit according to the output of the unit. 複数の波長域の光を検知する光電変換部と、前記光線変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示するとともにバックライトを備えた表示部と、前記光電変換部により生体情報を取得するときは対象物を照明するために前記バックライトを点灯させる制御部とを有することを特徴とする生体情報取得装置。 A photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the light beam conversion unit, a display that displays the acquired biological information and includes a backlight And a control unit that turns on the backlight to illuminate the object when the biological information is acquired by the photoelectric conversion unit. 複数の波長域の光を検知する光電変換部と、前記光線変換部により検知される受光情報に基づいて生体情報を取得する処理部と、取得した生体情報を表示するとともにバックライトを備えた表示部と、検知のための光源部と、前記光電変換部が対象物に近接しているかどうかを検知する近接検知部と、前記近接検知部が対象物の近接を検知すると前記光源部を点灯させるとともに前記バックライトを消灯させる制御部とを有することを特徴とする生体情報取得装置。 A photoelectric conversion unit that detects light in a plurality of wavelength ranges, a processing unit that acquires biological information based on light reception information detected by the light beam conversion unit, a display that displays the acquired biological information and includes a backlight , A light source unit for detection, a proximity detection unit that detects whether or not the photoelectric conversion unit is close to the object, and turns on the light source unit when the proximity detection unit detects the proximity of the object And a biological information acquisition apparatus comprising: a controller that turns off the backlight.
JP2010008694A 2010-01-19 2010-01-19 Biological information acquisition device Pending JP2011147469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010008694A JP2011147469A (en) 2010-01-19 2010-01-19 Biological information acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010008694A JP2011147469A (en) 2010-01-19 2010-01-19 Biological information acquisition device

Publications (1)

Publication Number Publication Date
JP2011147469A true JP2011147469A (en) 2011-08-04

Family

ID=44535054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010008694A Pending JP2011147469A (en) 2010-01-19 2010-01-19 Biological information acquisition device

Country Status (1)

Country Link
JP (1) JP2011147469A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104586355A (en) * 2013-10-31 2015-05-06 夏普株式会社 Measurement device
WO2015159704A1 (en) * 2014-04-16 2015-10-22 ローム株式会社 Medical optical imaging system and camera
JP2015192852A (en) * 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2015202208A (en) * 2014-04-14 2015-11-16 サイバーワオン合同会社 Portable terminal health condition examination device with camera
JP2016511659A (en) * 2013-02-05 2016-04-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for determining vital sign information of a subject
WO2016151992A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Skin diagnosis device
KR101752560B1 (en) 2015-09-02 2017-06-30 성균관대학교산학협력단 Oxygen saturation measuring method using image and computer readable storage medium of recording oxygen saturation measuring method using image
JPWO2016162980A1 (en) * 2015-04-08 2018-02-01 オリンパス株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JPWO2017018114A1 (en) * 2015-07-30 2018-05-31 アルプス電気株式会社 Sensor module and biological information display system
US10417513B2 (en) 2016-02-26 2019-09-17 Samsung Display Co., Ltd. Photosensitive thin film device and biometric information sensing apparatus including the photosensitive thin film device
CN110507311A (en) * 2019-08-27 2019-11-29 中科麦迪人工智能研究院(苏州)有限公司 A kind of ecg analysis method, apparatus, equipment and medium based on image information
CN110518086A (en) * 2019-07-16 2019-11-29 东南大学 A kind of carbon quantum dot solar blind ultraviolet detector and preparation method thereof
US10648825B2 (en) 2017-01-19 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Pulse wave measuring apparatus, control method, and non-transitory computer-readable recording medium
US11570371B2 (en) * 2017-08-01 2023-01-31 Sony Group Corporation Imaging apparatus, imaging method, and program
JP7458643B2 (en) 2020-05-15 2024-04-01 バイオニクス株式会社 Terminal device for blood flow authentication device and entrance/exit control device using the same

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511659A (en) * 2013-02-05 2016-04-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for determining vital sign information of a subject
US9980650B2 (en) 2013-02-05 2018-05-29 Koninklijke Philips N.V. System and method for determining vital sign information of a subject
CN104586355A (en) * 2013-10-31 2015-05-06 夏普株式会社 Measurement device
US10477119B2 (en) 2014-03-25 2019-11-12 Canon Kabushiki Kaisha Imaging device
JP2015192852A (en) * 2014-03-25 2015-11-05 キヤノン株式会社 imaging device
JP2015202208A (en) * 2014-04-14 2015-11-16 サイバーワオン合同会社 Portable terminal health condition examination device with camera
WO2015159704A1 (en) * 2014-04-16 2015-10-22 ローム株式会社 Medical optical imaging system and camera
WO2016151992A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Skin diagnosis device
JP2016182235A (en) * 2015-03-26 2016-10-20 パナソニックIpマネジメント株式会社 Skin diagnosis device
JPWO2016162980A1 (en) * 2015-04-08 2018-02-01 オリンパス株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JPWO2017018114A1 (en) * 2015-07-30 2018-05-31 アルプス電気株式会社 Sensor module and biological information display system
KR101752560B1 (en) 2015-09-02 2017-06-30 성균관대학교산학협력단 Oxygen saturation measuring method using image and computer readable storage medium of recording oxygen saturation measuring method using image
US10417513B2 (en) 2016-02-26 2019-09-17 Samsung Display Co., Ltd. Photosensitive thin film device and biometric information sensing apparatus including the photosensitive thin film device
US10648825B2 (en) 2017-01-19 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Pulse wave measuring apparatus, control method, and non-transitory computer-readable recording medium
US11570371B2 (en) * 2017-08-01 2023-01-31 Sony Group Corporation Imaging apparatus, imaging method, and program
CN110518086A (en) * 2019-07-16 2019-11-29 东南大学 A kind of carbon quantum dot solar blind ultraviolet detector and preparation method thereof
CN110507311A (en) * 2019-08-27 2019-11-29 中科麦迪人工智能研究院(苏州)有限公司 A kind of ecg analysis method, apparatus, equipment and medium based on image information
CN110507311B (en) * 2019-08-27 2022-07-19 中科麦迪人工智能研究院(苏州)有限公司 Image information based electrocardiogram analysis method, device, equipment and medium
JP7458643B2 (en) 2020-05-15 2024-04-01 バイオニクス株式会社 Terminal device for blood flow authentication device and entrance/exit control device using the same

Similar Documents

Publication Publication Date Title
JP2011147469A (en) Biological information acquisition device
JP2011151596A (en) Biometrics authentication device and mobile device
JP5452137B2 (en) Travel information recording device for vehicle
JP2011149901A (en) Light receiving device and mobile apparatus
WO2010021342A2 (en) Camera
US8063971B2 (en) Image capture apparatus with optical finder
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
KR20200094741A (en) Imaging apparatus, imaging method and imaging element
JP5815072B2 (en) Vehicle monitoring device
WO2021241019A1 (en) Imaging element and imaging device
JP2010227200A (en) Endoscope
JP5251323B2 (en) Imaging device
JP2016052095A (en) Imaging apparatus, control method for imaging apparatus, and control program
TW202107885A (en) Solid-state imaging device and electronic apparatus
JP5537870B2 (en) Vehicle monitoring device
JP2009153074A (en) Image photographing apparatus
JP2010233857A (en) Endoscope
WO2020036054A1 (en) Solid-state imaging element and electronic device
JP4795813B2 (en) Vehicle perimeter monitoring device
TW202137749A (en) Imaging device, imaging method, and electronic apparatus
JP2010062742A (en) Camera
JP2010062604A (en) Imaging sensor
JP2016046774A (en) Imaging device
JP5691440B2 (en) Imaging device
TWI840483B (en) Signal processing method and imaging device