JP2014236421A - Camera apparatus and imaging method - Google Patents
Camera apparatus and imaging method Download PDFInfo
- Publication number
- JP2014236421A JP2014236421A JP2013117862A JP2013117862A JP2014236421A JP 2014236421 A JP2014236421 A JP 2014236421A JP 2013117862 A JP2013117862 A JP 2013117862A JP 2013117862 A JP2013117862 A JP 2013117862A JP 2014236421 A JP2014236421 A JP 2014236421A
- Authority
- JP
- Japan
- Prior art keywords
- color
- subject
- display
- display method
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、非可視光を被写体に照射して、被写体を撮像するカメラ装置及び撮像方法に関する。 The present invention relates to a camera device and an imaging method for imaging a subject by irradiating the subject with invisible light.
従来、非可視光の一種である赤外光を照射した被写体を撮像してカラー表示する暗視カメラが知られている。このような暗視カメラは、色情報を得ることができないためモノクロ等の単色で表示されるのが一般的であるが、複数の異なる波長の赤外光を被写体に照射し、被写体からの各波長の反射特性を利用して色推定を行い、被写体をカラー表示することが知られている(特許文献1参照)。 2. Description of the Related Art Conventionally, night vision cameras that capture and color-display a subject irradiated with infrared light, which is a type of invisible light, are known. Since such night vision cameras cannot obtain color information, they are generally displayed in a single color such as monochrome, but irradiate a subject with infrared light of a plurality of different wavelengths, It is known that color estimation is performed using the reflection characteristics of wavelengths to display a subject in color (see Patent Document 1).
しかしながら、非可視光を被写体に照射し、その反射特性を利用して被写体の色を推定する場合、実際には、外乱光の影響、または、カメラ装置内部のノイズの影響等により、反射率に誤差が生じることがある。さらに、反射特性においては、誤差がある程度あっても確からしい推定色を決定できる領域と、少しの誤差であっても推定色を誤る可能性が高い領域とがあり、後者の領域では誤差を含む反射率に基づいて色推定を行うと、推定色は必然的に可視領域における色とは異なってしまう。この結果、表示出力される画像データには、確からしい推定色の領域と誤っている可能性が高い推定色の領域を抱えることになるが、ユーザはどの領域が確からしく、どの領域が不確かなのかを把握することができないという問題点があった。 However, when illuminating a subject with invisible light and estimating the color of the subject using its reflection characteristics, the reflectance actually depends on the influence of ambient light or noise inside the camera device. An error may occur. Furthermore, in the reflection characteristics, there are an area where a probable estimated color can be determined even if there is some error, and an area where there is a high possibility that the estimated color will be erroneous even if there is a slight error, and the latter area includes an error. When color estimation is performed based on the reflectance, the estimated color inevitably differs from the color in the visible region. As a result, the image data to be displayed and output has an area of an estimated color that is likely to be erroneous and an area of an estimated color that is likely to be incorrect, but the user is certain which area is uncertain and which area is uncertain. There was a problem that it was not possible to grasp.
本発明の目的は、推定色が確からしいか否かをユーザが表示された画像データから確認することができるカメラ装置及び撮像方法を提供することである。 An object of the present invention is to provide a camera device and an imaging method that allow a user to confirm whether or not an estimated color is likely from an image data displayed.
本発明の一態様に係るカメラ装置は、非可視光を照射するとともに、照射された被写体を撮像するカメラ装置であって、複数の異なる波長を有する非可視光を出射して、前記被写体を照射する照射部と、照射された前記被写体を撮像した画像データの色を推定して表示データを生成する色推定部と、を備え、前記色推定部は、推定する色情報の確からしさによって、第1の表示方法により生成された表示エリアと、第1の方法とは異なる第2の表示方法により生成された表示エリアを有する表示データを生成する構成を採る。 A camera device according to an aspect of the present invention is a camera device that irradiates non-visible light and images the irradiated subject, and emits non-visible light having a plurality of different wavelengths to irradiate the subject. And a color estimation unit that generates display data by estimating the color of image data obtained by imaging the irradiated subject, and the color estimation unit is configured to determine the color information to be estimated according to the likelihood of the color information to be estimated. A configuration is adopted in which display data having a display area generated by one display method and a display area generated by a second display method different from the first method is generated.
本発明の一態様に係る撮像方法は、非可視光を照射するとともに、照射された被写体を撮像するカメラ装置における撮像方法であって、複数の異なる波長を有する非可視光を出射して、前記被写体を照射する照射ステップと、照射された前記被写体を撮像した画像データの色を推定して表示データを生成する色推定ステップと、を有し、前記色推定ステップでは、推定する色情報の確からしさによって、第1の表示方法により生成された表示エリアと、第1の方法とは異なる第2の表示方法により生成された表示エリアを有する表示データを生成するようにした。 An imaging method according to an aspect of the present invention is an imaging method in a camera device that irradiates invisible light and images an irradiated subject, and emits invisible light having a plurality of different wavelengths, An irradiation step for irradiating a subject, and a color estimation step for generating display data by estimating a color of image data obtained by imaging the irradiated subject. In the color estimation step, confirmation of color information to be estimated is performed. Depending on the likelihood, display data having a display area generated by the first display method and a display area generated by a second display method different from the first method is generated.
本発明によれば、推定色が確からしいか否かをユーザが表示された画像データから確認することができる。 According to the present invention, the user can confirm whether or not the estimated color is likely from the displayed image data.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、実施の形態において、同一の機能を有する構成には、同一の符号を付し、重複する説明は省略する。また、各実施の形態は、互いに矛盾しない範囲において相互に利用可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that, in the embodiment, the same reference numerals are given to configurations having the same functions, and duplicate descriptions are omitted. The embodiments can be used with each other as long as they do not contradict each other.
(実施の形態1)
<カメラ装置の構成>
図1は、本発明の実施の形態1に係るカメラ装置100の構成について、図1及び図2を用いて説明する。なお、図2では、カメラ装置100に加えて被写体10及びモニタ250も記載する。
(Embodiment 1)
<Configuration of camera device>
FIG. 1 explains the configuration of a camera apparatus 100 according to Embodiment 1 of the present invention, using FIG. 1 and FIG. In FIG. 2, the subject 10 and the monitor 250 are also described in addition to the camera device 100.
図1に示すように、カメラ装置100は、それぞれ異なる波長の非可視光を被写体に向けて出射する第1の出射部102、第2の出射部103、及び、第3の出射部104が、撮像レンズ201Aを取り囲むように配置されている。ここで、上記の撮像レンズ201Aは、図2に示す撮像光学部201の構成要素である。なお、第1の出射部102、第2の出射部103及び第3の出射部104の配列パターンは、本実施の形態では特に限定されるものではない。三つのブロックに分けて配置しても良いし、一つずつ順番に交互に配置しても良い。 As shown in FIG. 1, the camera device 100 includes a first emission unit 102, a second emission unit 103, and a third emission unit 104 that emit invisible light with different wavelengths toward a subject. It arrange | positions so that the imaging lens 201A may be surrounded. Here, the imaging lens 201A is a component of the imaging optical unit 201 shown in FIG. Note that the arrangement pattern of the first emission unit 102, the second emission unit 103, and the third emission unit 104 is not particularly limited in the present embodiment. The blocks may be divided into three blocks or may be alternately arranged one by one.
この具体例では、第1の出射部102、第2の出射部103、及び、第3の出射部104より外側には、非可視光を透過する保護フィルター320が設けられている。また、非可視光の出射口には、光の出射側へ張り出て、保護フィルター320の周縁を囲うカバー310が設けられている。保護フィルター320は、図2に示す照明光学部105の構成要素である。 In this specific example, a protective filter 320 that transmits invisible light is provided outside the first emission unit 102, the second emission unit 103, and the third emission unit 104. In addition, a cover 310 that protrudes toward the light emission side and surrounds the periphery of the protective filter 320 is provided at the emission port of the invisible light. The protection filter 320 is a component of the illumination optical unit 105 shown in FIG.
また、図2に示すように、カメラ装置100は、制御部101、照射部150及び撮像部200を有している。 As illustrated in FIG. 2, the camera device 100 includes a control unit 101, an irradiation unit 150, and an imaging unit 200.
照射部150は、被写体10に対して、波長λ11〜λ13(各波長は異なる)の非可視光を波長毎に時間をずらして順次照射する。 The irradiation unit 150 sequentially irradiates the subject 10 with invisible light having wavelengths λ11 to λ13 (each wavelength is different) with a time shifted for each wavelength.
撮像部200は、非可視光が照射された被写体10を撮像する。 The imaging unit 200 images the subject 10 irradiated with invisible light.
制御部101は、照射部150からの非可視光の出射を制御する。制御部101が照射部150における波長毎の出射を制御することを照射制御と言う。また、この時、制御部101から照射部150に波長毎に出力される照射制御情報を含む信号を照射制御信号という。照射部150は、照射制御信号に従って、波長λ11〜λ13の各非可視光を出射する。ここで、非可視光とは赤外光もしくは紫外光である。 The control unit 101 controls the emission of invisible light from the irradiation unit 150. Control by the control unit 101 for each wavelength in the irradiation unit 150 is called irradiation control. At this time, a signal including irradiation control information output from the control unit 101 to the irradiation unit 150 for each wavelength is referred to as an irradiation control signal. The irradiation unit 150 emits each invisible light having wavelengths λ11 to λ13 according to the irradiation control signal. Here, the invisible light is infrared light or ultraviolet light.
<照射部の構成>
本発明の実施の形態1における照射部150の構成について、図1を用いて説明する。照射部150は、第1の出射部102と、第2の出射部103と、第3の出射部104と、照明光学部105とから主に構成されている。なお、第1の出射部102〜第3の出射部104は、被写体10を照射する際の光源であるので、以下において、第1の出射部102〜第3の出射部104を「光源」と表記する場合もある。
<Configuration of irradiation unit>
The structure of the irradiation part 150 in Embodiment 1 of this invention is demonstrated using FIG. The irradiation unit 150 mainly includes a first emission unit 102, a second emission unit 103, a third emission unit 104, and an illumination optical unit 105. The first emission unit 102 to the third emission unit 104 are light sources for irradiating the subject 10, and hence the first emission unit 102 to the third emission unit 104 are referred to as “light sources” in the following. It may be written.
第1の出射部102、第2の出射部103及び第3の出射部104は、制御部101の照射制御信号に従って、各々互いに異なる波長λ11、λ12、λ13の非可視光を出射する。非可視光は、波長毎に時間をずらして間欠的に出射される。第1の出射部102、第2の出射部103及び第3の出射部104は、例えば、発光ダイオード(LED)である。ここでは、光源としてLEDを用いているが、光源はLEDに限定されるものではなく、レーザ、レーザ若しくはLED等で励起された蛍光体からの発光、高圧水銀ランプ、等、所望の波長の光を発する光源であれば、全て適用可能である。 The first emission unit 102, the second emission unit 103, and the third emission unit 104 emit invisible light having different wavelengths λ11, λ12, and λ13, respectively, according to the irradiation control signal of the control unit 101. Invisible light is emitted intermittently at different wavelengths for each wavelength. The first emitting unit 102, the second emitting unit 103, and the third emitting unit 104 are, for example, light emitting diodes (LEDs). Here, an LED is used as a light source, but the light source is not limited to an LED, and light having a desired wavelength such as light emitted from a phosphor excited by a laser, laser, or LED, a high-pressure mercury lamp, or the like. Any light source that emits light can be applied.
照明光学部105は、第1の出射部102から出射された非可視光、第2の出射部103から出射された非可視光、または第3の出射部104から出射された非可視光を被写体10に向けて照射する。照明光学部105は、被写体10に非可視光を照射するためのレンズを有している。照明光学部105から出射される非可視光は、レンズを用いることにより、効率良く被写体10の方向に導かれる。なお、本発明のカメラ装置100は、レンズが無くても照明光学部105から出射される非可視光を被写体10に照射できるので、照明光学部105のレンズを省略しても構わない。 The illumination optical unit 105 subjects the invisible light emitted from the first emitting unit 102, the invisible light emitted from the second emitting unit 103, or the invisible light emitted from the third emitting unit 104 to the subject. Irradiate toward 10. The illumination optical unit 105 has a lens for irradiating the subject 10 with invisible light. The invisible light emitted from the illumination optical unit 105 is efficiently guided toward the subject 10 by using a lens. Note that the camera device 100 of the present invention can irradiate the subject 10 with invisible light emitted from the illumination optical unit 105 without a lens, so the lens of the illumination optical unit 105 may be omitted.
また、本実施の形態では、第1の出射部102〜第3の出射部104からの非可視光を拡散させる拡散素子を、第1の出射部102〜第3の出射部104と被写体10との間の光路に設けることで、被写体10を照射する非可視光の光強度を広い範囲で均一にすることもできる。拡散素子は、回折型や屈折型等、一般的な構成のものを、何ら制約無く用いることができる。 In the present embodiment, the diffusing element that diffuses the invisible light from the first emission unit 102 to the third emission unit 104 is used as the first emission unit 102 to the third emission unit 104 and the subject 10. By providing in the optical path between, the light intensity of the invisible light that irradiates the subject 10 can be made uniform over a wide range. A diffusion element having a general configuration such as a diffractive type or a refractive type can be used without any limitation.
また、照明光学部105は、第1の出射部102〜第3の出射部104に対して共通としなくてもよく、第1の出射部102〜第3の出射部104に対して個別に設けてもよい。その場合、カメラ装置100は、第1の出射部102〜第3の出射部104の波長に対して、各照明光学部を最適な設計にすることができ、より広い範囲で均一な光強度を有する非可視光を照射することができる。 Further, the illumination optical unit 105 may not be common to the first emission unit 102 to the third emission unit 104, and is provided separately for the first emission unit 102 to the third emission unit 104. May be. In that case, the camera apparatus 100 can design each illumination optical unit optimally with respect to the wavelengths of the first emission unit 102 to the third emission unit 104, and can provide uniform light intensity over a wider range. The invisible light which has can be irradiated.
<撮像部の構成>
本発明の実施の形態1における撮像部200の構成について、図1を用いて説明する。撮像部200は、撮像光学部201と、センサー部202と、データ処理部203と、画像認識部204とから主に構成されている。
<Configuration of imaging unit>
The configuration of the imaging unit 200 according to Embodiment 1 of the present invention will be described with reference to FIG. The imaging unit 200 mainly includes an imaging optical unit 201, a sensor unit 202, a data processing unit 203, and an image recognition unit 204.
撮像光学部201は、図示せぬ集光レンズを有し、照射された非可視光が被写体10で反射された反射光を集光してセンサー部202に出力する。集光レンズは、被写体10からの反射光をセンサー部202に集光することにより、被写体10の像をセンサー部202に結像する。集光レンズは、カメラ装置において一般的に用いられる撮像レンズである。 The imaging optical unit 201 has a condensing lens (not shown), collects the reflected light reflected by the subject 10 with the irradiated invisible light, and outputs it to the sensor unit 202. The condensing lens focuses the reflected light from the subject 10 onto the sensor unit 202, thereby forming an image of the subject 10 on the sensor unit 202. The condenser lens is an imaging lens that is generally used in camera devices.
センサー部202は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の受光素子を含み、撮像光学部201で集光された被写体10からの反射光を受けて、被写体10を撮像し、受けた光を電気信号に変換する。センサー部202で変換された電気信号は、撮像データとしてセンサー部202からデータ処理部203に出力される。 The sensor unit 202 includes a light receiving element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), receives the reflected light from the subject 10 collected by the imaging optical unit 201, and images the subject 10. The received light is converted into an electrical signal. The electrical signal converted by the sensor unit 202 is output from the sensor unit 202 to the data processing unit 203 as imaging data.
なお、センサー部202は、制御部101からセンサー制御を受ける。この時、制御部101からセンサー部202に入力するセンサー制御情報を含む信号をセンサー制御信号という。例えば、センサー制御信号には、第1の出射部102〜第3の出射部104が被写体10を照射したタイミングの情報が含まれている。従って、センサー部202は、被写体10で反射された反射光が、どの波長に対する反射光であるかを確実に知ることができるため、第1の出射部102〜第3の出射部104の各々の波長の電気信号を確実に分離することができる。 The sensor unit 202 receives sensor control from the control unit 101. At this time, a signal including sensor control information input from the control unit 101 to the sensor unit 202 is referred to as a sensor control signal. For example, the sensor control signal includes timing information when the first emission unit 102 to the third emission unit 104 irradiate the subject 10. Accordingly, since the sensor unit 202 can surely know which wavelength the reflected light reflected by the subject 10 is, the each of the first emission unit 102 to the third emission unit 104. It is possible to reliably separate electrical signals having wavelengths.
データ処理部203は、センサー部202から出力された撮像データを取得し、取得した撮像データに対して、ゲイン調整及び露光調整等の所定の画像処理を施す。これにより、第1の出射部102から出射された非可視光、第2の出射部103から出射された非可視光、または第3の出射部104から出射された非可視光で撮像された画像データをそれぞれ生成する。データ処理部203は、生成した画像データを色推定部204に出力する。 The data processing unit 203 acquires the imaging data output from the sensor unit 202, and performs predetermined image processing such as gain adjustment and exposure adjustment on the acquired imaging data. Thereby, an image captured with invisible light emitted from the first emitting unit 102, invisible light emitted from the second emitting unit 103, or invisible light emitted from the third emitting unit 104 Generate each data. The data processing unit 203 outputs the generated image data to the color estimation unit 204.
なお、データ処理部203は、制御部101からデータ処理制御を受ける。この時、制御部101からデータ処理部203に入力するデータ処理制御情報を含む信号をデータ処理制御信号という。データ処理制御信号は、センサー部202から出力された撮像データが、第1の出射部102〜第3の出射部104の何れから照射された波長の非可視光に対応する撮像データであるかを確認し、適切な処理をすることなどに利用される。 The data processing unit 203 receives data processing control from the control unit 101. At this time, a signal including data processing control information input from the control unit 101 to the data processing unit 203 is referred to as a data processing control signal. The data processing control signal indicates whether the imaging data output from the sensor unit 202 is imaging data corresponding to invisible light having a wavelength emitted from any of the first emission unit 102 to the third emission unit 104. It is used to confirm and perform appropriate processing.
また、データ処理部203は、センサー部202から出力される撮像データから、データ処理制御信号の情報も同時に受けられることは言うまでもない。 In addition, it goes without saying that the data processing unit 203 can simultaneously receive data processing control signal information from the imaging data output from the sensor unit 202.
色推定部204は、データ処理部203により出力されたλ11〜λ13の各画像データに基づいて、被写体10の3つの輝度を用いた所定の計算によって計算結果を得る。色推定部204は、得られた結果と色情報とをパラメータとして対応付けた色推定テーブルを備え、その色推定テーブルを利用して色の推定を行う。色推定部204は、被写体10の輝度及び色の推定結果に基づいて被写体10の表示用データを生成し、生成した表示用データをモニタ250に出力する。 The color estimation unit 204 obtains a calculation result by predetermined calculation using the three luminances of the subject 10 based on the image data of λ11 to λ13 output from the data processing unit 203. The color estimation unit 204 includes a color estimation table in which the obtained result and color information are associated as parameters, and performs color estimation using the color estimation table. The color estimation unit 204 generates display data for the subject 10 based on the luminance and color estimation results of the subject 10, and outputs the generated display data to the monitor 250.
また、色推定部204は、後述する推定時に被写体10の特定のセルまたはエリアに2種類以上の色候補が存在すると判断した場合、当該エリアの表示方法を変更する。 Further, when it is determined that there are two or more types of color candidates in a specific cell or area of the subject 10 at the time of estimation described later, the color estimation unit 204 changes the display method of the area.
なお、色推定部204は、制御部101から色推定制御を受ける。この時、制御部101から色推定部204に入力する色推定処理制御情報を含む信号を色推定制御信号という。色推定制御信号は、データ処理部203から出力された画像データが、第1の出射部102〜第3の出射部104の何れから照射された波長の非可視光に対応する画像データであるかを確認し、適切な処理をするため等に利用される。 The color estimation unit 204 receives color estimation control from the control unit 101. At this time, a signal including color estimation processing control information input from the control unit 101 to the color estimation unit 204 is referred to as a color estimation control signal. Whether the color estimation control signal is the image data corresponding to the invisible light having the wavelength emitted from any of the first emission unit 102 to the third emission unit 104 of the image data output from the data processing unit 203 It is used to confirm the above and perform appropriate processing.
また、色推定部204は、データ処理部203から出力される画像データから、色推定制御信号の情報も同時に受けられることは言うまでもない。 Needless to say, the color estimation unit 204 can also receive information on the color estimation control signal from the image data output from the data processing unit 203 at the same time.
なお、モニタ250は、カメラ装置100に設けられても良いが、通信ネットワークを介してカメラ装置と通信可能に接続されたものであっても良い。 The monitor 250 may be provided in the camera apparatus 100, but may be connected to the camera apparatus via a communication network so as to be communicable.
本実施の形態ではカメラ装置100は一つの装置で構成される形態を示したが、被写体への非可視光の照射、照射された被写体を撮像する部分以外は、通信ネットワークを介して接続され、本実施の形態の画像認識処理や色推定処理を行うアプリケーションを備えたパーソナルコンピュータや専用のセットトップボックスによっても実現可能である。 In the present embodiment, the camera device 100 is configured as a single device. However, the camera device 100 is connected via a communication network except for the irradiation of non-visible light to the subject and the image of the irradiated subject. The present invention can also be realized by a personal computer provided with an application for performing image recognition processing and color estimation processing of the present embodiment, and a dedicated set-top box.
<色推定の原理>
ここで、色推定部204における色推定の原理について、図3及び図4を用いて説明する。
<Principle of color estimation>
Here, the principle of color estimation in the color estimation unit 204 will be described with reference to FIGS.
図3は、可視領域と赤外領域におけるある被写体における二つの色(色1及び色2)の反射特性を示しており、図4は、図3に示す反射特性に基づく、色1及び色2の色推定テーブルの概念図を示している。なお、図3において、横軸は波長を示し、縦軸は反射率を示している。 FIG. 3 shows the reflection characteristics of two colors (color 1 and color 2) in a certain subject in the visible region and the infrared region, and FIG. 4 shows colors 1 and 2 based on the reflection properties shown in FIG. The conceptual diagram of the color estimation table is shown. In FIG. 3, the horizontal axis indicates the wavelength, and the vertical axis indicates the reflectance.
図3は、二つの異なる色(色1及び色2)に対する反射特性を示している。図3に示すように、異なる非可視光の波長としてλ11、λ12、λ13が用いられているとする。理論的には三つの波長の反射率が全て同一なものはないが、実際には、反射率は外乱光の影響、または、装置内部におけるセンサー部202で変換された電気信号をデータ処理部203に伝送する際のノイズの影響等により、検出される反射率に基づくデータには誤差が生じてしまうことがある。 FIG. 3 shows the reflection characteristics for two different colors (Color 1 and Color 2). As shown in FIG. 3, it is assumed that λ11, λ12, and λ13 are used as different wavelengths of invisible light. Theoretically, the reflectances of the three wavelengths are not all the same, but in reality, the reflectance is the influence of disturbance light, or the electrical signal converted by the sensor unit 202 inside the apparatus is the data processing unit 203. An error may occur in the data based on the detected reflectance due to the influence of noise during transmission.
そこで、上記誤差を吸収する目的で、図4に示すように、本実施の形態の色推定テーブルには、λ12のB行のように、反射率は31%〜39%の区間であれば、色1と色2の複数色が割り当てられる。 Therefore, for the purpose of absorbing the above error, as shown in FIG. 4, in the color estimation table of the present embodiment, the reflectance is in the range of 31% to 39% as in the B line of λ12. A plurality of colors of color 1 and color 2 are assigned.
色推定部204は、このような色推定テーブルを用いることで、例えば、λ11の反射率が20%、λ12の反射率が40%、λ13の反射率が60%であれば、色2であるとして一つの色を推定する。一方、λ11の反射率が20%、λ12の反射率が34%、λ13の反射率が60%であれば色1と色2があり得るとして、二つの色候補が存在すると推定する。なお、ここでは説明の便宜上、色1、色2の例で示しているが、色の数、色候補として設定される数は二つに限定されるものではない。 By using such a color estimation table, the color estimation unit 204 is, for example, color 2 if the reflectance of λ11 is 20%, the reflectance of λ12 is 40%, and the reflectance of λ13 is 60%. Assuming one color. On the other hand, if the reflectance of λ11 is 20%, the reflectance of λ12 is 34%, and the reflectance of λ13 is 60%, it is estimated that there are two color candidates, assuming that there can be color 1 and color 2. Here, for convenience of explanation, examples of color 1 and color 2 are shown, but the number of colors and the number set as color candidates are not limited to two.
<撮像部の動作>
次に、上述した撮像部200の動作について、図5を用いて説明する。
<Operation of imaging unit>
Next, the operation of the imaging unit 200 described above will be described with reference to FIG.
ステップ(以下、「ST」と省略する)301において、撮像光学部201は、照射された非可視光が被写体10で反射された反射光を波長毎に集光する。 In step (hereinafter abbreviated as “ST”) 301, the imaging optical unit 201 condenses the reflected light of the irradiated invisible light reflected by the subject 10 for each wavelength.
ST302において、センサー部202は、撮像光学部201で集光された被写体10からの反射光を受けて、被写体10を撮像し、受けた光を電気信号(撮像データ)に変換する。 In ST302, the sensor unit 202 receives the reflected light from the subject 10 collected by the imaging optical unit 201, images the subject 10, and converts the received light into an electrical signal (imaging data).
ST303において、データ処理部203は、撮像データに対して、ゲイン調整及び露光調整等の所定の画像処理を施すことにより、各波長の非可視光で撮像された画像データをそれぞれ生成する。 In ST303, the data processing unit 203 generates image data captured with invisible light of each wavelength by performing predetermined image processing such as gain adjustment and exposure adjustment on the captured data.
ST304において、色推定部204は、データ処理部203から出力されたλ11〜λ13の各画像データに基づいて、被写体10の色を、前述したように反射率を表す輝度に基づき、図4に示したような色推定テーブルを利用して色の推定を行う。色推定の結果、あるセルもしくはエリアに対して2種類以上の色候補が存在する場合(ST304:YES)、ST306に移行する。一方、色推定の結果が1種類の色であれば(ST304:NO)、ST305に移行する。 In ST304, the color estimation unit 204 shows the color of the subject 10 based on the image data of λ11 to λ13 output from the data processing unit 203, based on the luminance representing the reflectance as described above, as shown in FIG. Color estimation is performed using a color estimation table as described above. If two or more color candidates exist for a certain cell or area as a result of color estimation (ST304: YES), the process proceeds to ST306. On the other hand, if the result of color estimation is one kind of color (ST304: NO), the process proceeds to ST305.
ST305において、色推定部204は、画像データのスペクトルに基づいて、被写体10に対応する1種類の色を推定し、第1の表示方法により、被写体10を表示するための表示用データを生成する。 In ST305, the color estimation unit 204 estimates one type of color corresponding to the subject 10 based on the spectrum of the image data, and generates display data for displaying the subject 10 by the first display method. .
一方、ST306においては、色推定部204は、ST305における第1の表示方法とは異なる第2の表示方法により、被写体10を表示するための表示用データを生成する。 On the other hand, in ST306, the color estimation unit 204 generates display data for displaying the subject 10 by a second display method different from the first display method in ST305.
なお、第1の表示方法及び第2の表示方法としては、以下のような方法が考えられる。 As the first display method and the second display method, the following methods can be considered.
まず、第1の表示方法として、1種類の色に対応する被写体10にはカラー表示し、第2の表示方法として、2種類以上の色候補に対応する被写体10には白黒表示する。なお、白黒表示は点滅表示等、ユーザが第1の表示方法である通常のカラー表示と識別可能な表示方法であれば良い。 First, as a first display method, the subject 10 corresponding to one type of color is displayed in color, and as the second display method, the subject 10 corresponding to two or more types of color candidates is displayed in black and white. The black and white display may be a display method that allows the user to distinguish from the normal color display that is the first display method, such as blinking display.
また、最終的な表示用データとして白黒表示させ、第1の表示方法で表示されたエリア上にマウス等の指示手段を介してユーザが指示すると、指示された箇所の色をテキスト表示する(例えば「赤」)。同様に、第2の表示方法で表示されたエリア上にユーザによる指示が行われると、複数の色をテキスト表示する(例えば「青もしくは緑」)。 In addition, when the data is displayed in black and white as the final display data and the user gives an instruction via an instruction means such as a mouse on the area displayed by the first display method, the color of the indicated location is displayed as text (for example, "Red"). Similarly, when an instruction is given by the user on the area displayed by the second display method, a plurality of colors are displayed as text (for example, “blue or green”).
第1の表示方法と第2の表示方法に関しては、モニタ250に表示された画像データからユーザが識別可能に表示されれば良いので、上記した表示例に限定されるものではない。 The first display method and the second display method are not limited to the above-described display examples because it is only necessary to display the image data displayed on the monitor 250 so that the user can be identified.
表示用データは最終的には、ST307において、ST305の第1の表示方法により作成された表示用データと、ST306の第2の表示方法により作成された表示用データとが合成されて、一つのフレームとしてモニタ250に出力される。 Finally, in ST307, the display data is synthesized by combining the display data created by the first display method of ST305 and the display data created by the second display method of ST306. It is output to the monitor 250 as a frame.
このように、実施の形態1によれば、被写体10に対して2種類以上の色候補が対応する場合、1種類の色が対応する場合の第1の表示方法と異なる第2の表示方法で被写体10を表示することにより、ユーザの誤認識を低減する画像を表示することができる。 As described above, according to the first embodiment, when two or more color candidates correspond to the subject 10, the second display method is different from the first display method when one color corresponds. By displaying the subject 10, it is possible to display an image that reduces user misrecognition.
なお、本実施の形態では、色推定部204が、図4に示すような色推定テーブルを利用することで、推定色が一つなのか複数なのかを判定する例を示したが、本実施の形態はこれに限らず、色推定部204は、λ11〜λ13の各波長によって得られた画像データに基づいて、画面内の各セルの輝度値に基づいて推定色の確からしさを判断しても良い。輝度値は、例えば、図6に示すように、10ビットで表す場合、輝度値0が黒、輝度値1023が白、輝度値1〜1022がグレーにそれぞれ対応する。ただし、輝度値が小さい場合、ノイズ(輝度値20程度)の影響で曖昧な色推定しかできないことがある。このため、輝度値が所定値以下の場合、第1の表示方法とは異なる第2の表示方法で表示用データを生成することもできる。 In the present embodiment, the color estimation unit 204 uses the color estimation table as illustrated in FIG. 4 to determine whether the estimated color is one or more. However, the color estimation unit 204 determines the likelihood of the estimated color based on the luminance value of each cell in the screen based on the image data obtained from the wavelengths λ11 to λ13. Also good. For example, as shown in FIG. 6, when the luminance value is represented by 10 bits, the luminance value 0 corresponds to black, the luminance value 1023 corresponds to white, and the luminance values 1 to 1022 correspond to gray. However, when the luminance value is small, only ambiguous color estimation may be possible due to the influence of noise (luminance value of about 20). For this reason, when the luminance value is equal to or lower than the predetermined value, the display data can be generated by the second display method different from the first display method.
(実施の形態2)
<カメラ装置の構成>
本発明の実施の形態2に係るカメラ装置400の構成について、図7を用いて説明する。
(Embodiment 2)
<Configuration of camera device>
The configuration of camera device 400 according to Embodiment 2 of the present invention will be described with reference to FIG.
カメラ装置400は、照射部150、撮像部200、測距センサー401及び制御部402を有している。 The camera device 400 includes an irradiation unit 150, an imaging unit 200, a distance measuring sensor 401, and a control unit 402.
図7に示すカメラ装置400は、図2に示す実施の形態1に係るカメラ装置100と比較して、測距センサー401を有し、制御部101の代わりに制御部402を有する。 A camera device 400 shown in FIG. 7 has a distance measuring sensor 401 and a control unit 402 instead of the control unit 101, as compared with the camera device 100 according to the first embodiment shown in FIG.
測距センサー401は、被写体10で反射された反射光を検知し、検知した反射光の強度に応じて、被写体10との距離を算出し、算出した距離を制御部402に出力する。測距センサー401は本発明の測定手段を構成する。 The distance measuring sensor 401 detects the reflected light reflected by the subject 10, calculates the distance to the subject 10 according to the intensity of the detected reflected light, and outputs the calculated distance to the control unit 402. The distance measuring sensor 401 constitutes the measuring means of the present invention.
制御部402は、測距センサー401から出力されたカメラ装置400と被写体10との距離に基づいて、表示方法を決定し、決定した表示方法を色推定部204に出力する。具体的には、制御部402は、被写体10との距離が所定値未満の場合、第1の表示方法に決定し、被写体10との距離が所定値以上の場合、第1の表示方法と異なる第2の表示方法に決定する。これにより、曖昧な色推定の対象となる遠くに位置する被写体10に対して推定された色推定、誤った色推定を行うことなく、ユーザの誤認識を低減させることができる。また、制御部402は、照射部150からの非可視光の出射を制御する。 The control unit 402 determines a display method based on the distance between the camera device 400 and the subject 10 output from the distance measuring sensor 401, and outputs the determined display method to the color estimation unit 204. Specifically, the control unit 402 determines the first display method when the distance to the subject 10 is less than a predetermined value, and differs from the first display method when the distance to the subject 10 is equal to or greater than the predetermined value. The second display method is determined. Thereby, it is possible to reduce the user's misrecognition without performing the color estimation or the erroneous color estimation that is performed on the subject 10 that is located far from the target of the ambiguous color estimation. Further, the control unit 402 controls the emission of invisible light from the irradiation unit 150.
<カメラ装置の動作>
次に、上述したカメラ装置400の測距及び撮像の動作について、図8を用いて説明する。ただし、図6において、図3と共通する部分には、図3と同一の符号を付し、重複する説明は省略する。
<Operation of camera device>
Next, distance measurement and imaging operations of the camera device 400 described above will be described with reference to FIG. However, in FIG. 6, the same reference numerals as those in FIG.
ST501において、測距センサー401は、被写体10で反射された反射光を検知し、検知した反射光の強度に応じて、カメラ装置400(測距センサー401)と被写体10との距離を算出する。なお、カメラ装置400と被写体10との距離を測るのが目的であるので、測距手段としては測距センサー401に限定されるものではなく、ステレオカメラ方式やTOF(Time Of Fright)方式を利用したものを利用することも考えられる。 In ST501, the distance measuring sensor 401 detects the reflected light reflected by the subject 10, and calculates the distance between the camera device 400 (the distance measuring sensor 401) and the subject 10 according to the detected intensity of the reflected light. Since the purpose is to measure the distance between the camera device 400 and the subject 10, the distance measuring means is not limited to the distance measuring sensor 401, and a stereo camera method or a TOF (Time Of Fright) method is used. It is also possible to use what you have done.
ST502において、制御部402は、被写体10との距離が所定値以上であるか否かを判定し、所定値以上である場合(ST502:YES)、ST306に移行し、所定値未満である場合(ST502:NO)、ST305に移行する。 In ST502, the control unit 402 determines whether or not the distance to the subject 10 is equal to or greater than a predetermined value. If the distance is equal to or greater than the predetermined value (ST502: YES), the control unit 402 proceeds to ST306 and is less than the predetermined value (ST502: YES). (ST502: NO), the process proceeds to ST305.
このように、実施の形態2によれば、カメラ装置400と被写体10との距離に応じて表示データを異ならせることができ、ユーザは推定色の確からしさを把握することが可能となる。 As described above, according to the second embodiment, the display data can be changed according to the distance between the camera device 400 and the subject 10, and the user can grasp the accuracy of the estimated color.
なお、上記各実施の形態では、赤外光を光源に用いる場合について説明したが、赤外光に加え、紫外光を用いることにより、より多くの色を推定することができる。例えば、図9に示すように、白、黄、赤は赤外領域における反射特性が類似しており、赤外光のみを用いてこれらの色を推定するのは困難であるが、紫外光(UV)を用いることにより、白、赤、黄を推定することができる。 In each of the above-described embodiments, the case where infrared light is used as a light source has been described. However, more colors can be estimated by using ultraviolet light in addition to infrared light. For example, as shown in FIG. 9, white, yellow, and red have similar reflection characteristics in the infrared region, and it is difficult to estimate these colors using only infrared light, but ultraviolet light ( By using (UV), white, red and yellow can be estimated.
本発明にかかるカメラ装置及び撮像方法は、複数の異なる波長を有する非可視光を被写体に照射すると共に、照射された被写体を撮像するのに好適である。 The camera device and the imaging method according to the present invention are suitable for irradiating a subject with invisible light having a plurality of different wavelengths and imaging the irradiated subject.
201A 撮像レンズ
310 カバー
320 保護フィルター
10 被写体
100、400 カメラ装置
101、402 制御部
102 第1の出射部
103 第2の出射部
104 第3の出射部
105 照明光学部
150 照射部
200 撮像部
201 撮像光学部
202 センサー部
203 データ処理部
204 色推定部
250 モニタ
401 測距センサー
201A Imaging lens 310 Cover 320 Protective filter 10 Subject 100, 400 Camera device 101, 402 Control unit 102 First emitting unit 103 Second emitting unit 104 Third emitting unit 105 Illumination optical unit 150 Irradiating unit 200 Imaging unit 201 Imaging unit 201 Optical unit 202 Sensor unit 203 Data processing unit 204 Color estimation unit 250 Monitor 401 Distance sensor
Claims (10)
複数の異なる波長を有する非可視光を出射して、前記被写体を照射する照射部と、
照射された前記被写体を撮像した画像データの色を推定して表示データを生成する色推定部と、
を備え、
前記色推定部は、推定する色情報の確からしさによって、第1の表示方法により生成された表示エリアと、第1の方法とは異なる第2の表示方法により生成された表示エリアを有する表示データを生成するカメラ装置。 A camera device that irradiates invisible light and images the irradiated subject,
An irradiation unit that emits invisible light having a plurality of different wavelengths and irradiates the subject;
A color estimation unit that estimates display color of image data obtained by imaging the irradiated subject and generates display data;
With
The color estimation unit includes display data having a display area generated by the first display method and a display area generated by a second display method different from the first method, depending on the accuracy of the color information to be estimated. Camera device to generate.
前記色推定テーブルは、ある輝度値に基づく値に対して複数の色情報が対応付けられている請求項2記載のカメラ装置。 The color estimation unit has a color estimation table of values and color information based on luminance values of captured image data,
The camera apparatus according to claim 2, wherein the color estimation table associates a plurality of pieces of color information with a value based on a certain luminance value.
前記色推定部は、前記被写体との距離が所定値以上の場合、そのエリアは前記第2の表示方法により表示データを生成する請求項1に記載のカメラ装置。 A distance measuring unit for measuring the distance to the subject;
The camera device according to claim 1, wherein the color estimation unit generates display data in the area by the second display method when the distance to the subject is a predetermined value or more.
前記第2の表示方法は、前記被写体を白黒表示する、
請求項1に記載のカメラ装置。 The first display method displays the subject in color,
The second display method displays the subject in black and white.
The camera device according to claim 1.
前記第2の表示方法は、前記被写体を当該被写体の色候補によって点滅表示する、
請求項1に記載のカメラ装置。 The first display method displays the subject in color,
The second display method blinks and displays the subject by a color candidate of the subject.
The camera device according to claim 1.
複数の異なる波長を有する非可視光を出射して、前記被写体を照射する照射ステップと、
照射された前記被写体を撮像した画像データの色を推定して表示データを生成する色推定ステップと、
を有し、
前記色推定ステップでは、推定する色情報の確からしさによって、第1の表示方法により生成された表示エリアと、第1の表示方法とは異なる第2の表示方法により生成された表示エリアを有する表示データを生成する撮像方法。
An imaging method in a camera device that irradiates invisible light and images an illuminated subject,
Irradiating the subject by emitting invisible light having a plurality of different wavelengths; and
A color estimating step of generating display data by estimating the color of image data obtained by imaging the irradiated object;
Have
In the color estimation step, a display having a display area generated by the first display method and a display area generated by a second display method different from the first display method depending on the certainty of the estimated color information. An imaging method for generating data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117862A JP2014236421A (en) | 2013-06-04 | 2013-06-04 | Camera apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117862A JP2014236421A (en) | 2013-06-04 | 2013-06-04 | Camera apparatus and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014236421A true JP2014236421A (en) | 2014-12-15 |
Family
ID=52138814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013117862A Pending JP2014236421A (en) | 2013-06-04 | 2013-06-04 | Camera apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014236421A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021020355A1 (en) * | 2019-07-29 | 2021-02-04 | カシオ計算機株式会社 | Color estimation device, color estimation method, and program |
-
2013
- 2013-06-04 JP JP2013117862A patent/JP2014236421A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021020355A1 (en) * | 2019-07-29 | 2021-02-04 | カシオ計算機株式会社 | Color estimation device, color estimation method, and program |
CN114175613A (en) * | 2019-07-29 | 2022-03-11 | 卡西欧计算机株式会社 | Color estimation device, color estimation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10419693B2 (en) | Imaging apparatus, endoscope apparatus, and microscope apparatus | |
US9709387B2 (en) | Image generation device for acquiring distances of objects present in image space | |
US20180116520A1 (en) | Imaging apparatus | |
US9030529B2 (en) | Depth image acquiring device, system and method | |
US20180224333A1 (en) | Image capturing apparatus and image capturing computer program product | |
KR102432765B1 (en) | A TOF camera system and a method for measuring a distance with the system | |
US9579054B2 (en) | Diagnosis supporting device and diagnosis supporting method | |
US10117569B2 (en) | Diagnosis supporting device and diagnosis supporting method | |
US9993154B2 (en) | Eye gaze detection supporting device and eye gaze detection supporting method | |
TWI463244B (en) | System, device and method for acquiring depth image | |
TW201606331A (en) | Optoelectronic modules operable to distinguish between signals indicative of reflections from an object of interest and signals indicative of a spurious reflection | |
US11023039B2 (en) | Visual line detection apparatus and visual line detection method | |
KR20140066638A (en) | Apparatus and method for obtaining 3d image | |
JP2008145386A (en) | Apparatus for acquiring range image, and method | |
JP2011510315A (en) | Spatial colorimetric measuring device and spatial colorimetric measuring method for three-dimensional objects | |
JP2019005096A (en) | Processor device and method of operating the same | |
US11399698B2 (en) | Light source system, control device, and control method | |
US20190051005A1 (en) | Image depth sensing method and image depth sensing apparatus | |
JP2014070936A (en) | Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program | |
CN110574368B (en) | Solid-state imaging device, imaging system, and object recognition system | |
US20160317098A1 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
JP7341145B2 (en) | Device that images the skin | |
JP6419093B2 (en) | Imaging device | |
JP2014236421A (en) | Camera apparatus and imaging method | |
KR20190025930A (en) | Color imaging with synchronized illumination in separate narrow bands |