JP2019132847A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2019132847A
JP2019132847A JP2019036973A JP2019036973A JP2019132847A JP 2019132847 A JP2019132847 A JP 2019132847A JP 2019036973 A JP2019036973 A JP 2019036973A JP 2019036973 A JP2019036973 A JP 2019036973A JP 2019132847 A JP2019132847 A JP 2019132847A
Authority
JP
Japan
Prior art keywords
image data
imaging
unit
raindrop
sky
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019036973A
Other languages
Japanese (ja)
Inventor
毅 吉岡
Takeshi Yoshioka
毅 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019036973A priority Critical patent/JP2019132847A/en
Publication of JP2019132847A publication Critical patent/JP2019132847A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To improve the quality of image data.SOLUTION: The imaging device includes: an imaging element for imaging an object; and an acquisition unit for acquiring image data generated by the imaging element. The condition for imaging the image data of a part of the image data acquired by the acquisition unit, and the condition for imaging the image data of the other region are different. The imaging data may output image data of a region which is not the partial region of the image data. The condition for imaging may include setting of the diaphragm for adjusting the amount of light entering the imaging element.SELECTED DRAWING: Figure 9

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

複数の異なる領域の映像を一台のカメラで取得し、領域毎に異なる種類の判定に供する車両用撮像装置がある(例えば特許文献1参照)。
[特許文献1] 特開2010−223685号公報
There is a vehicular imaging apparatus that acquires images of a plurality of different areas with a single camera and uses different types of determination for each area (see, for example, Patent Document 1).
[Patent Document 1] Japanese Patent Application Laid-Open No. 2010-223585

上記撮影装置においては、領域毎に異なる種類の判定を一の画像処理部で処理する。このため、処理回路が複雑になり、処理時間も長くなる。   In the photographing apparatus, different types of determination for each region are processed by one image processing unit. This complicates the processing circuit and increases the processing time.

本発明の一態様においては、被写体を撮像する撮像素子と、撮像素子で生成された画像データを取得する取得部と、を備え、取得部で取得された画像データのうち一部の領域の画像データを撮像するための撮像条件と、一部の領域以外の画像データを撮像するための撮像条件とが異なる撮像装置が提供される。   In one embodiment of the present invention, an image sensor that captures an image of an object and an acquisition unit that acquires image data generated by the image sensor are provided, and an image of a partial area of the image data acquired by the acquisition unit. An imaging apparatus is provided in which imaging conditions for imaging data and imaging conditions for imaging image data other than a part of the area are different.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

車両100の斜視図である。1 is a perspective view of a vehicle 100. FIG. 撮像領域300の模式図である。3 is a schematic diagram of an imaging region 300. FIG. 天空撮像光学系210の分解斜視図である。2 is an exploded perspective view of a sky imaging optical system 210. FIG. 雨滴撮像光学系230の分解斜視図である。2 is an exploded perspective view of a raindrop imaging optical system 230. FIG. 雨滴撮像光学系230の模式的断面図である。3 is a schematic cross-sectional view of a raindrop imaging optical system 230. FIG. 画像データ400の模式図である。3 is a schematic diagram of image data 400. FIG. 内部回路240のブロック図である。3 is a block diagram of an internal circuit 240. FIG. 外部処理装置270のブロック図である。3 is a block diagram of an external processing device 270. FIG. 前方画像データ430等の模式図である。It is a schematic diagram of front image data 430 grade | etc.,. 内部回路240の動作を示す流れ図である。3 is a flowchart showing the operation of an internal circuit 240. 前方画像データ430等の模式図である。It is a schematic diagram of front image data 430 grade | etc.,. 内部回路241のブロック図である。2 is a block diagram of an internal circuit 241. FIG. 内部回路243のブロック図である。3 is a block diagram of an internal circuit 243. FIG.

以下、発明の実施の形態を通じて本発明を説明する。下記の実施形態は、特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. The following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、車両100の前部を示す部分的且つ模式的な斜視図である。車両100は、ウインドシールド110、ワイパ120およびライトユニット130を備える。なお、記載を簡潔にする目的で、図中に矢印で示すように、車両100の車幅方向をX方向、車両100の高さ方向をY方向、車両100の進行方向をZ方向、とそれぞれ記載する場合がある。   FIG. 1 is a partial and schematic perspective view showing a front portion of the vehicle 100. The vehicle 100 includes a windshield 110, a wiper 120, and a light unit 130. For the purpose of simplifying the description, as indicated by arrows in the figure, the vehicle width direction of the vehicle 100 is the X direction, the height direction of the vehicle 100 is the Y direction, and the traveling direction of the vehicle 100 is the Z direction. May be described.

ウインドシールド110は、車両100の車室前面に固定された強化ガラスにより形成される。ウインドシールド110の外面下端近傍には、ワイパ120が配される。ワイパ120は、一端を回転軸として往復回転動作し、ウインドシールド110の外表面を払拭する。これにより、ウインドシールド110に付着した雨滴、雪片等が除去され、運転車の前方視界が確保される。   The windshield 110 is formed of tempered glass fixed to the front surface of the passenger compartment of the vehicle 100. A wiper 120 is disposed near the lower end of the outer surface of the windshield 110. The wiper 120 reciprocates around one end as a rotation axis, and wipes the outer surface of the windshield 110. As a result, raindrops, snowflakes, and the like attached to the windshield 110 are removed, and the forward visibility of the driving vehicle is secured.

ウインドシールド110内面には、ルームミラー112および車載カメラユニット200を併せて支持する支持部114が固定される。運転席に着座した運転者は、ウインドシールド110を通じた車両100前方の様子と、ルームミラー112を通じた車両100後方の様子とを、それぞれ観察できる。   A support portion 114 that supports the rearview mirror 112 and the in-vehicle camera unit 200 together is fixed to the inner surface of the windshield 110. The driver seated in the driver's seat can observe the state in front of the vehicle 100 through the windshield 110 and the state in the rear of the vehicle 100 through the rear mirror 112, respectively.

車載カメラユニット200は、ウインドシールド110を通じて車室外の画像を撮影する。ウインドシールド110の外表面において、ワイパ120は、車載カメラユニット200の前方も払拭する。よって、車載カメラユニット200は、降雨時においてもウインドシールド110を通じて車室外を撮影できる。   The in-vehicle camera unit 200 captures an image outside the passenger compartment through the windshield 110. On the outer surface of the windshield 110, the wiper 120 also wipes the front of the in-vehicle camera unit 200. Therefore, the in-vehicle camera unit 200 can take an image of the outside of the passenger compartment through the windshield 110 even during rain.

ライトユニット130は、車両100の前端近傍に配される。ライトユニット130は、主灯、車幅灯、方向指示器、フォグランプ、デイタイムライト等の発光部を収容する。ライトユニット130において、主灯および車幅灯は夜間に点灯され、フォグランプは降雨、濃霧等、前方視界が劣化した場合に点灯される。デイタイムライトは、昼間に原動機が稼働している場合に点灯される。このように、ライトユニット130は、車両100のおかれた環境条件に応じて様々な点灯状態をとり得る。   The light unit 130 is disposed near the front end of the vehicle 100. The light unit 130 houses light emitting units such as a main light, a vehicle width light, a direction indicator, a fog lamp, and a daytime light. In the light unit 130, the main lamp and the width lamp are turned on at night, and the fog lamp is turned on when the forward visibility deteriorates due to rain, heavy fog, or the like. The daytime light is lit when the prime mover is running during the day. Thus, the light unit 130 can take various lighting states according to the environmental conditions in which the vehicle 100 is placed.

図2は、車載カメラユニット200の撮像素子222の撮像領域300を示す。撮像素子222は、画素が二次元的に配されたCCD、CMOS等であり、被写体光に対応したデジタルの画像データを生成する。   FIG. 2 shows the imaging region 300 of the imaging element 222 of the in-vehicle camera unit 200. The image sensor 222 is a CCD, CMOS, or the like in which pixels are two-dimensionally arranged, and generates digital image data corresponding to subject light.

撮像領域300は、前方領域330、天空領域310および雨滴領域320を含む。天空領域310は、撮像領域300のうち上辺に沿った横長の領域を占める。雨滴領域320は、撮像領域300から天空領域310を除いた領域において、撮像領域300の側辺に沿った一対の領域を占める。前方領域330は、撮像領域300から天空領域310および雨滴領域320を除いた領域全体を占める。前方領域330は、天空領域310および雨滴領域320に比較すると面積が広い。   The imaging area 300 includes a front area 330, a sky area 310, and a raindrop area 320. The sky region 310 occupies a horizontally long region along the upper side of the imaging region 300. The raindrop area 320 occupies a pair of areas along the side of the imaging area 300 in the area excluding the sky area 310 from the imaging area 300. The front area 330 occupies the entire area excluding the sky area 310 and the raindrop area 320 from the imaging area 300. The front area 330 has a larger area than the sky area 310 and the raindrop area 320.

前方領域330は、車両100の運転者が運転席からウインドシールド110を通じてZ方向を観察する外部空間を被写体とする。よって、前方領域330で取得される画像には、道路、車線、先行車両、標識等が含まれる。   The front area 330 is a subject in an external space where the driver of the vehicle 100 observes the Z direction through the windshield 110 from the driver's seat. Therefore, the image acquired in the front area 330 includes roads, lanes, preceding vehicles, signs, and the like.

天空領域310は、車両100に対してY方向を見上げた場合の天空を被写体とする。天空領域310で取得される画像には、空、雲等の識別可能なオブジェクトも含まれ得るが、主に輝度分布を示す。よって、天空領域310の解像度は、低くてもよい場合がある。   The sky region 310 uses the sky when looking up in the Y direction with respect to the vehicle 100 as a subject. The image acquired in the sky region 310 may include identifiable objects such as sky and clouds, but mainly shows a luminance distribution. Therefore, the resolution of the sky region 310 may be low.

雨滴領域320は、ウインドシールド110の外表面に合焦しており、ウインドシールド110に雨滴、雪片等が付着した場合の当該付着物を含む画像を取得する。単に雨滴の有無を検出する場合は、雨滴領域320に高い解像度は要求されない。   The raindrop area 320 is focused on the outer surface of the windshield 110, and acquires an image including the attached matter when raindrops, snowflakes, or the like adhere to the windshield 110. When simply detecting the presence or absence of raindrops, a high resolution is not required for the raindrop region 320.

図3は、車載カメラユニット200において天空領域310に天空の被写体光を導く天空撮像光学系210の分解斜視図である。天空撮像光学系210は、撮像部220の前に配されたライトガイドユニット211を含む。   FIG. 3 is an exploded perspective view of the sky imaging optical system 210 that guides sky subject light to the sky region 310 in the in-vehicle camera unit 200. The sky imaging optical system 210 includes a light guide unit 211 disposed in front of the imaging unit 220.

ライトガイドユニット211は、互いに対向する入射端212および射出端214を有する。入射端212は、車両100の前方にあたるZ方向に面して配される。ライトガイドユニット211の入射端212は、射出端214に対して、Y方向について上方にずれた位置に配される。このため、入射端212と射出端214とは、Y方向について徐々に下降する傾斜した光路により結合される。これにより、撮像部220に対してY方向、即ち上方に位置する天空の被写体像が撮像部220に導かれる。   The light guide unit 211 has an entrance end 212 and an exit end 214 that face each other. The incident end 212 is arranged facing the Z direction in front of the vehicle 100. The incident end 212 of the light guide unit 211 is arranged at a position shifted upward in the Y direction with respect to the emission end 214. For this reason, the entrance end 212 and the exit end 214 are coupled by an inclined optical path that gradually descends in the Y direction. Thereby, the sky subject image positioned in the Y direction, that is, above the imaging unit 220 is guided to the imaging unit 220.

射出端214は、撮像部220の入射端に対面する。ここで、ライトガイドユニット211の射出端214は、撮像部220の撮像範囲の上端近傍に配される。これにより、ライトガイドユニット211から射出された被写体光束は、撮像領域300の天空領域310に入射する。   The exit end 214 faces the entrance end of the imaging unit 220. Here, the exit end 214 of the light guide unit 211 is disposed near the upper end of the imaging range of the imaging unit 220. As a result, the subject luminous flux emitted from the light guide unit 211 enters the sky region 310 of the imaging region 300.

ライトガイドユニット211における傾斜した光路の上面および下面は、より低い屈折率を有するクラッド層216によりそれぞれ被覆される。よって、ライトガイドユニット211の入射端212から入射した被写体光束は、射出端214まで低損失に伝播される。   The upper and lower surfaces of the inclined optical path in the light guide unit 211 are respectively covered with a cladding layer 216 having a lower refractive index. Therefore, the subject luminous flux incident from the incident end 212 of the light guide unit 211 is propagated to the exit end 214 with low loss.

上記のようなライトガイドユニット211を設けることにより、車両100に対してZ方向に向かって設置された車載カメラユニット200を用いて、車両100に対してY方向に位置する天空の被写体像を、天空領域310で取得し、画像データを生成することができる。天空領域310の画像データを解析することにより、例えば、昼夜の別あるいは天候に応じた環境の明るさを検出できる。   By providing the light guide unit 211 as described above, a sky subject image positioned in the Y direction with respect to the vehicle 100 using the in-vehicle camera unit 200 installed in the Z direction with respect to the vehicle 100, It can be acquired in the sky region 310 and image data can be generated. By analyzing the image data of the sky region 310, for example, the brightness of the environment according to whether it is day or night or according to the weather can be detected.

図4は、車載カメラユニット200において雨滴領域320に被写体光を導く雨滴撮像光学系230の空間的な配置を示す分解斜視図である。雨滴撮像光学系230は、光源231、プリズム232、複数の反射鏡233、234、235を含む。また、雨滴撮像光学系230は、それぞれが光源231、プリズム232および複数の反射鏡233、234、235を含み、撮像部220の光軸に対してX方向に対称に形成された一対の光学系を含む。   FIG. 4 is an exploded perspective view showing a spatial arrangement of the raindrop imaging optical system 230 that guides subject light to the raindrop area 320 in the in-vehicle camera unit 200. The raindrop imaging optical system 230 includes a light source 231, a prism 232, and a plurality of reflecting mirrors 233, 234, and 235. Further, the raindrop imaging optical system 230 includes a light source 231, a prism 232, and a plurality of reflecting mirrors 233, 234, and 235, and a pair of optical systems formed symmetrically in the X direction with respect to the optical axis of the imaging unit 220. including.

一対の光学系の一方に着目すると、プリズム232の一面は、ウインドシールド110の内面に沿った傾きを有する。光源231は、プリズム232において、ウインドシールド110に沿って傾いた面に隣接する面に対向して配される。   When attention is paid to one of the pair of optical systems, one surface of the prism 232 has an inclination along the inner surface of the windshield 110. The light source 231 is disposed in the prism 232 so as to face a surface adjacent to a surface inclined along the windshield 110.

光源231は、赤外帯域または近赤外帯域の照射光を発生してプリズム232の内部に向かって照射する。プリズム232内を伝播した照射光は、プリズム232においてウインドシールド110の内面に沿った面に隣接し、且つ、照射光が入射した面に対向する面から射出される。   The light source 231 generates irradiation light in the infrared band or near infrared band and irradiates the light toward the inside of the prism 232. The irradiation light propagated through the prism 232 is emitted from a surface adjacent to the surface along the inner surface of the windshield 110 in the prism 232 and facing the surface on which the irradiation light is incident.

複数の反射鏡233、234、235のうちのひとつの反射鏡233は、プリズム232から射出された照射光を反射する。更に、他の反射鏡234、235は、当該照射光を順次反射して、撮像部220の入射端に誘導する。雨滴撮像光学系230の射出端となる反射鏡235は、照射光を、撮像部220の撮像領域300の側方縁部近傍に誘導する。これにより、雨滴撮像光学系230から射出された照射光は、撮像領域300の雨滴領域320に導かれる。   One reflecting mirror 233 among the plurality of reflecting mirrors 233, 234, and 235 reflects the irradiation light emitted from the prism 232. Further, the other reflecting mirrors 234 and 235 sequentially reflect the irradiation light and guide it to the incident end of the imaging unit 220. The reflecting mirror 235 serving as the exit end of the raindrop imaging optical system 230 guides the irradiation light to the vicinity of the side edge of the imaging region 300 of the imaging unit 220. As a result, the irradiation light emitted from the raindrop imaging optical system 230 is guided to the raindrop area 320 of the imaging area 300.

図5は、雨滴撮像光学系230の断面図であり、雨滴領域320を撮像する雨滴撮像光学系230を形成する一対の光学系の一方の光学的機能を示す。また、図5には、前方領域330を撮像する場合に用いる前方撮像光学系224も併せて示す。   FIG. 5 is a cross-sectional view of the raindrop imaging optical system 230 and shows one optical function of a pair of optical systems that form the raindrop imaging optical system 230 that images the raindrop region 320. FIG. 5 also shows a front imaging optical system 224 used when imaging the front region 330.

光源231から放射状に射出された照射光は、プリズム232内を平行光として伝播し、プリズム232の図中上面からウインドシールド110に向かって照射される。ウインドシールド110の内面には、反射防止層116が設けられる。これにより、ウインドシールド110の内面における照射光の反射が抑制され、照射光はウインドシールド110の外表面に照射される。なお、反射防止層116は、シリコン薄膜、誘電体多層膜等により形成できる。   Irradiation light emitted radially from the light source 231 propagates in the prism 232 as parallel light, and is irradiated toward the windshield 110 from the upper surface of the prism 232 in the drawing. An antireflection layer 116 is provided on the inner surface of the windshield 110. Thereby, reflection of the irradiation light on the inner surface of the windshield 110 is suppressed, and the irradiation light is irradiated on the outer surface of the windshield 110. The antireflection layer 116 can be formed of a silicon thin film, a dielectric multilayer film, or the like.

ここで、照射光は、ウインドシールド110の外表面における領域Aと大気との界面において全反射を生じる角度で、ウインドシールド110外表面に照射される。よって、ウインドシールド110外表面における領域Aにおいて、照射光は効率よく反射され、再びウインドシールド110およびプリズム232内を伝播した後、プリズム232から反射鏡233に向かって射出される。   Here, the irradiation light is applied to the outer surface of the windshield 110 at an angle that causes total reflection at the interface between the region A and the atmosphere on the outer surface of the windshield 110. Therefore, in the region A on the outer surface of the windshield 110, the irradiation light is efficiently reflected, propagates again through the windshield 110 and the prism 232, and then exits from the prism 232 toward the reflecting mirror 233.

プリズム232から射出された照射光は、複数の反射鏡233、234、235に順次反射された後、撮像部220に入射される。ひとつの反射鏡234は凹面状の反射面を有するので、撮像部220には、ウインドシールド110における領域A全体の縮小像が入射する。   Irradiation light emitted from the prism 232 is sequentially reflected by the plurality of reflecting mirrors 233, 234, and 235 and then enters the imaging unit 220. Since one reflecting mirror 234 has a concave reflecting surface, a reduced image of the entire region A in the windshield 110 is incident on the imaging unit 220.

車両100においてウインドシールド110の外表面に雨滴、雪片等の付着物が付着した場合、ウインドシールド110外表面における屈折率差が変化する。よって、当該外表面における全反射の臨界角度が変化する。その結果、乾燥状態ではウインドシールド110外表面で全反射されていた照射光の一部が、ウインドシールド110の外側に射出される。   When deposits such as raindrops or snowflakes adhere to the outer surface of the windshield 110 in the vehicle 100, the refractive index difference on the outer surface of the windshield 110 changes. Therefore, the critical angle of total reflection on the outer surface changes. As a result, a part of the irradiation light totally reflected on the outer surface of the windshield 110 in the dry state is emitted to the outside of the windshield 110.

このため、ウインドシールド110の表面に雨滴等が付着した場合には、当該付着物が付着した領域において、雨滴撮像光学系230を通じて撮像部220に導かれる照射光の光量が低下する。よって、ウインドシールド110外表面に対する付着物の形状は、撮像部220により暗点として撮像される。このように、雨滴撮像光学系230を通じて撮像部220が生成した画像データを解析することにより、ウインドシールド110に付着した付着物の量を検出できる。   For this reason, when raindrops or the like adhere to the surface of the windshield 110, the amount of irradiation light guided to the imaging unit 220 through the raindrop imaging optical system 230 decreases in the area where the deposits are attached. Therefore, the shape of the deposit on the outer surface of the windshield 110 is imaged as a dark spot by the imaging unit 220. In this manner, by analyzing the image data generated by the imaging unit 220 through the raindrop imaging optical system 230, the amount of deposits attached to the windshield 110 can be detected.

なお、上記の雨滴撮像光学系230は、他の構造にすることもできる。即ち、プリズム232に換えて、反射鏡、レンズ等を用いて照射光を平行光線に変換できる。また、反射鏡233、234、235としてすべて平面鏡を用い、レンズ等の他の光学部品により照射光を合焦させてもよい。また、反射鏡233、234、235の数が三枚に限られないことはいうまでもない。   Note that the raindrop imaging optical system 230 may have other structures. That is, the irradiation light can be converted into parallel rays using a reflecting mirror, a lens, or the like instead of the prism 232. Alternatively, flat mirrors may be used as the reflecting mirrors 233, 234, and 235, and the irradiation light may be focused by another optical component such as a lens. Needless to say, the number of reflecting mirrors 233, 234, 235 is not limited to three.

また、図5に示すように、車載カメラユニット200において、撮像部220は、撮像素子222、前方撮像光学系224および絞り装置226を有する。前方撮像光学系224は、Z方向、即ち、車両100の前方に向かって車両100に設置される。また、前方撮像光学系224の途中には絞り装置226が配される。   As shown in FIG. 5, in the in-vehicle camera unit 200, the imaging unit 220 includes an imaging element 222, a front imaging optical system 224, and a diaphragm device 226. The front imaging optical system 224 is installed in the vehicle 100 in the Z direction, that is, in front of the vehicle 100. A diaphragm device 226 is disposed in the middle of the front imaging optical system 224.

前方撮像光学系224は、Z方向、即ち車両100前方の領域を、撮像領域300の前方領域330上に結像させる光学特性を有する。よって、撮像部220は、ウインドシールド110を通じて前方撮像光学系224に対して直接に入射する被写体光束により、前方領域330に入射した被写体像に対応した画像データを生成する。また、絞り装置226を動作させることにより、前方撮像光学系224の被写体深度を変化させることができると共に、撮像する場合に被写界輝度を調節できる。   The front imaging optical system 224 has an optical characteristic that forms an image on the front area 330 of the imaging area 300 in the Z direction, that is, the area in front of the vehicle 100. Therefore, the imaging unit 220 generates image data corresponding to the subject image incident on the front region 330 by subject light flux that is directly incident on the front imaging optical system 224 through the windshield 110. Further, by operating the aperture device 226, the depth of field of the front imaging optical system 224 can be changed, and the field luminance can be adjusted when imaging.

撮像部220は、単一の撮像素子222を用いて、天空領域310、雨滴領域320および前方領域330の被写体像を併せて撮像する。よって、単一の撮像素子222の出力に基づいて、互いに異なる視野による天空領域310、雨滴領域320および前方領域330を一括して画像データに変換できる。これにより、車載カメラユニット200は、少ないハードウェア資源を用いて多彩な画像情報を取得できる。また、撮像領域300における画素のアドレスが指定されることにより、撮像領域300に入射した被写体光に基づいて生成された画像データから、上記前方領域330、天空領域310および雨滴領域320のそれぞれに対応する画像データが抽出される。   The imaging unit 220 captures the subject images of the sky region 310, the raindrop region 320, and the front region 330 together using a single image sensor 222. Therefore, based on the output of the single image sensor 222, the sky region 310, the raindrop region 320, and the front region 330 with different visual fields can be collectively converted into image data. Thereby, the vehicle-mounted camera unit 200 can acquire various image information using few hardware resources. Further, by designating the address of the pixel in the imaging area 300, it corresponds to each of the front area 330, the sky area 310, and the raindrop area 320 from the image data generated based on the subject light incident on the imaging area 300. Image data to be extracted is extracted.

なお、上記の例では、天空撮像光学系210および雨滴撮像光学系230が形成する被写体像が、前方撮像光学系224を通じて撮像素子222に結像する。しかしながら、撮像素子222の直前まで、天空撮像光学系210、雨滴撮像光学系230および前方撮像光学系224が相互に独立した構造にしてもよい。これにより、撮像部220は、天空撮像光学系210、雨滴撮像光学系230および前方撮像光学系224の各々において、互いに異なる撮像条件の下で撮像できる。   In the above example, the subject image formed by the sky imaging optical system 210 and the raindrop imaging optical system 230 forms an image on the imaging element 222 through the front imaging optical system 224. However, the sky imaging optical system 210, the raindrop imaging optical system 230, and the front imaging optical system 224 may be independent from each other until just before the imaging element 222. Accordingly, the imaging unit 220 can capture images under different imaging conditions in each of the sky imaging optical system 210, the raindrop imaging optical system 230, and the front imaging optical system 224.

図6は、撮像部220が生成する画像データ400を模式的に示す図である。説明の都合上、画像データ400を画像そのものとして示している。   FIG. 6 is a diagram schematically illustrating the image data 400 generated by the imaging unit 220. For convenience of explanation, the image data 400 is shown as an image itself.

撮像部220は、予め定められたフレームレートに応じた時間間隔毎に、撮像素子222により撮像領域300を電気信号に変換して画像データ400を生成する。よって、撮像部220は、撮像領域300で取得された画像に対応する複数のフレーム1〜nを、順次出力する。すなわち、フレーム1〜nの各々が、撮像領域300の全体の画像に対応する原画像データの一例である。フレーム1〜nの各々は、図3の天空領域310の画像に対応した天空画像データ410、雨滴領域320の画像に対応した雨滴画像データ420、および、前方領域330に対応した画像の前方画像データ430を含む。   The imaging unit 220 generates image data 400 by converting the imaging region 300 into an electrical signal by the imaging element 222 at time intervals according to a predetermined frame rate. Therefore, the imaging unit 220 sequentially outputs a plurality of frames 1 to n corresponding to the images acquired in the imaging region 300. That is, each of the frames 1 to n is an example of original image data corresponding to the entire image of the imaging region 300. Each of the frames 1 to n includes the sky image data 410 corresponding to the image of the sky region 310 in FIG. 3, the raindrop image data 420 corresponding to the image of the raindrop region 320, and the forward image data of the image corresponding to the front region 330. 430.

図7は、車載カメラユニット200の内部回路240を含む車両100の制御系のブロック図である。車載カメラユニット200の内部回路240は、抽出部242、撮像制御部244および内蔵処理装置250を有する。また、内蔵処理装置250は、天空画像データ解析部252、雨滴画像データ解析部254および送信部256を有する。   FIG. 7 is a block diagram of a control system of vehicle 100 including internal circuit 240 of in-vehicle camera unit 200. The internal circuit 240 of the in-vehicle camera unit 200 includes an extraction unit 242, an imaging control unit 244, and a built-in processing device 250. The built-in processing device 250 includes a sky image data analysis unit 252, a raindrop image data analysis unit 254, and a transmission unit 256.

撮像制御部244は、撮影制御信号を撮像部220に向かって出力する。撮影制御信号は、撮像部220が撮像領域300を撮像する場合の撮像条件を指示する。即ち、撮像制御部244は、例えば、撮像部220に入射した被写体光束の輝度に応じて、撮像素子222の感度、絞り装置226の開度等を変化させる。これにより、撮像部220は、撮像領域300を鮮明な画像データ400に変換できる。   The imaging control unit 244 outputs a shooting control signal toward the imaging unit 220. The imaging control signal instructs imaging conditions when the imaging unit 220 images the imaging area 300. That is, the imaging control unit 244 changes the sensitivity of the imaging element 222, the opening degree of the diaphragm device 226, and the like according to the luminance of the subject light beam incident on the imaging unit 220, for example. Thereby, the imaging unit 220 can convert the imaging region 300 into clear image data 400.

また、撮像制御部244は、画像データ400のフレーム毎に撮像部220の撮像条件を変化させてもよいし、撮像制御部244は、複数のフレーム毎に撮像条件を変化させてもよい。更に、撮像制御部244は、不等なフレーム間隔で撮像条件を変化させてもよい。   Further, the imaging control unit 244 may change the imaging conditions of the imaging unit 220 for each frame of the image data 400, and the imaging control unit 244 may change the imaging conditions for each of a plurality of frames. Furthermore, the imaging control unit 244 may change the imaging conditions at unequal frame intervals.

抽出部242は、撮像部220が撮像領域300を撮像して出力した画像データ400を原画像データとして取得し、前方画像データ430、天空画像データ410および雨滴画像データ420をそれぞれ抽出する。前方画像データ430は、画像データ通信路262を通じて外部に出力される。画像データ通信路262としては、例えばMOST(Media Oriented Systems Transport)バスを用いることができる。   The extraction unit 242 acquires the image data 400 output by the imaging unit 220 by imaging the imaging region 300 as original image data, and extracts the forward image data 430, the sky image data 410, and the raindrop image data 420, respectively. The forward image data 430 is output to the outside through the image data communication path 262. As the image data communication path 262, for example, a MOST (Media Oriented Systems Transport) bus can be used.

抽出部242において抽出された天空画像データ410および雨滴画像データ420は、それぞれ、内蔵処理装置250へ出力される。内蔵処理装置250において、天空画像データ解析部252は、天空画像データ410を解析し、解析結果を、例えば車両100がおかれた環境の明るさを数値化した明るさデータ251として出力する。また、内蔵処理装置250において、雨滴画像データ解析部254は、雨滴画像データ420を解析して、解析結果を、例えば、降雨の有無および降雨量を数値化した降雨データ253として出力する。   The sky image data 410 and the raindrop image data 420 extracted by the extraction unit 242 are each output to the built-in processing device 250. In the built-in processing device 250, the sky image data analysis unit 252 analyzes the sky image data 410 and outputs the analysis result as, for example, brightness data 251 in which the brightness of the environment in which the vehicle 100 is placed is digitized. In the built-in processing device 250, the raindrop image data analysis unit 254 analyzes the raindrop image data 420 and outputs the analysis result as, for example, rainfall data 253 in which the presence / absence of rainfall and the amount of rainfall are digitized.

送信部256は、天空画像データ解析部252が出力した明るさデータ251と、雨滴画像データ解析部254が出力した降雨データ253とを、それぞれ、予め定められた通信手順に応じた信号形式に変換して、非画像データ通信路264に出力する。   The transmission unit 256 converts the brightness data 251 output from the sky image data analysis unit 252 and the rain data 253 output from the raindrop image data analysis unit 254 into signal formats corresponding to predetermined communication procedures, respectively. Then, the data is output to the non-image data communication path 264.

数値化された明るさデータ251は、天空画像データ410に比較するとデータ容量が小さい。また、降雨データ253も、雨滴画像データ420に比較するとデータ容量が小さい。よって、明るさデータ251および降雨データ253を転送することにより、データ転送量を抑制して車両100における情報通信負荷を軽減できる。   The digitized brightness data 251 has a smaller data capacity than the sky image data 410. The rainfall data 253 also has a smaller data capacity than the raindrop image data 420. Therefore, by transferring the brightness data 251 and the rain data 253, the data transfer amount can be suppressed and the information communication load on the vehicle 100 can be reduced.

なお、非画像データ通信路264としては、CAN(Controller Area Network)バスまたはLIN(Local Interconnect Network)バスを用いることができる。また、ゲートウェイにより結合された複数チャネルのCANバスおよびLINバスとそれらの混成ネットワークを用いてもよい。   As the non-image data communication path 264, a CAN (Controller Area Network) bus or a LIN (Local Interconnect Network) bus can be used. Alternatively, a multi-channel CAN bus and LIN bus connected by a gateway and a hybrid network thereof may be used.

図8は、外部処理装置270のブロック図である。外部処理装置270は、内部回路240とは別のチップ、モジュール等として形成され、画像データ通信路262および非画像データ通信路264を通じて内部回路240に結合される。   FIG. 8 is a block diagram of the external processing device 270. The external processing device 270 is formed as a chip, module, or the like different from the internal circuit 240 and is coupled to the internal circuit 240 through the image data communication path 262 and the non-image data communication path 264.

外部処理装置270は、前方画像データ解析部272、灯火制御部274、ワイパ制御部276等を有する。なお、前方画像データ解析部272、灯火制御部274、ワイパ制御部276は、一体のモジュールとは限らず、画像データ通信路262または非画像データ通信路264を通じて、内部回路240に個別に結合されている場合もある。   The external processing device 270 includes a front image data analysis unit 272, a lighting control unit 274, a wiper control unit 276, and the like. The front image data analysis unit 272, the lighting control unit 274, and the wiper control unit 276 are not necessarily integrated modules, and are individually coupled to the internal circuit 240 through the image data communication path 262 or the non-image data communication path 264. Sometimes it is.

前方画像データ解析部272は、画像データ通信路262を通じて抽出部242から受けた前方画像データ430に対する解析を実行する。前方画像データ解析部272は、例えば、走行車線、先行車、路上障害物等を前方画像データ430から検出する画像処理を実行する。また、前方画像データ解析部272は、画像処理により前方画像データ430の赤外帯域を画像解析して、車両100前方の路面温度等を検出してもよい。   The front image data analysis unit 272 performs analysis on the front image data 430 received from the extraction unit 242 through the image data communication path 262. The front image data analysis unit 272 executes image processing for detecting, for example, a traveling lane, a preceding vehicle, a road obstacle, and the like from the front image data 430. Further, the front image data analysis unit 272 may detect the road surface temperature in front of the vehicle 100 by performing image analysis on the infrared band of the front image data 430 by image processing.

更に、前方画像データ解析部272は、前方画像データ430に対する画像処理を実行する場合に、内蔵処理装置250の天空画像データ解析部252および雨滴画像データ解析部254が出力する明るさデータ251および降雨データ253を参照してもよい。これにより、前方画像データ解析部272による前方画像データ430の解析精度を向上させることができる。   Furthermore, the front image data analysis unit 272 performs brightness processing on the brightness data 251 and the rain output from the sky image data analysis unit 252 and the raindrop image data analysis unit 254 of the built-in processing device 250 when performing image processing on the front image data 430. Data 253 may be referred to. Thereby, the analysis accuracy of the front image data 430 by the front image data analysis unit 272 can be improved.

前方画像データ解析部272の解析結果は、更に他の外部処理装置270、例えば、ABS(Antilock Brake System)、ESC(Electronic Stability Control)等から参照されてもよい。これにより、前方画像データ430の利用範囲を更に拡大できる。   The analysis result of the front image data analysis unit 272 may be referred to from another external processing device 270, for example, ABS (Antilock Break System), ESC (Electronic Stability Control), or the like. Thereby, the utilization range of the front image data 430 can further be expanded.

なお、前方画像データ解析部272における画像処理を、車載カメラユニット200の内部回路240で実行した場合は、処理装置の負荷が高くなり、処理速度が低下する場合がある。しかしながら、画像処理の少なくとも一部を外部処理装置270に委ねることにより、高速且つ高精度な処理ができ、車両100全体として前方画像データ430をより有効に利用できる。   In addition, when the image processing in the front image data analysis unit 272 is executed by the internal circuit 240 of the in-vehicle camera unit 200, the load on the processing device may increase and the processing speed may decrease. However, by entrusting at least part of the image processing to the external processing device 270, high-speed and high-precision processing can be performed, and the front image data 430 can be used more effectively as the entire vehicle 100.

灯火制御部274は、非画像データ通信路264を通じて明るさデータ251を参照した場合に、例えば、ライトユニット130における主灯、車幅灯、デイタイムライト等を適宜点灯または消灯させる。また、灯火制御部274は、降雨データ253を参照して、ライトユニット130におけるフォグランプ点灯または消灯させる。これにより、車両100を運転する運転者の灯火操作を軽減できる。   When the light control unit 274 refers to the brightness data 251 through the non-image data communication path 264, for example, the main light, the vehicle width light, the daytime light, and the like in the light unit 130 are appropriately turned on or off. In addition, the lighting control unit 274 refers to the rain data 253 and turns on or off the fog lamp in the light unit 130. Thereby, the lighting operation of the driver who drives the vehicle 100 can be reduced.

また、ワイパ制御部276は、非画像データ通信路264を通じて降雨データ253を参照した場合に、例えば、ワイパ120を動作または停止させる。更に、ワイパ制御部276は、降雨量が増加した場合にワイパ120の動作速度を高くする等、ワイパの動作速度を変化させてもよい。これにより、車両100を運転する運転者のワイパ操作を軽減できる。   Further, when the rain data 253 is referred to through the non-image data communication path 264, the wiper control unit 276 operates or stops the wiper 120, for example. Further, the wiper control unit 276 may change the operation speed of the wiper, such as increasing the operation speed of the wiper 120 when the rainfall amount increases. Thereby, the wiper operation of the driver who drives the vehicle 100 can be reduced.

更に、ワイパ制御部276は、非画像データ通信路264を通じて明るさデータ251を参照し、例えば昼間であるにもかかわらず天空が暗い場合に、曇天または雨天と判断して、降雨データ253の検出間隔を短くする等の制御を実行してもよい。これにより、曇天から降雨が始まった場合に、ワイパ120を即座に動作させることができる。   Further, the wiper control unit 276 refers to the brightness data 251 through the non-image data communication path 264. For example, when the sky is dark even though it is daytime, the wiper control unit 276 determines that it is cloudy or rainy and detects the rain data 253. Control such as shortening the interval may be executed. Thereby, when the rain starts from cloudy weather, the wiper 120 can be operated immediately.

図9は、内部回路240の抽出部242における処理を説明する模式図である。抽出部242は、画像データ400から、天空画像データ410、雨滴画像データ420および前方画像データ430を抽出する。   FIG. 9 is a schematic diagram illustrating processing in the extraction unit 242 of the internal circuit 240. The extraction unit 242 extracts the sky image data 410, the raindrop image data 420, and the forward image data 430 from the image data 400.

図示の例では、画像データ400の複数のフレーム1〜nのうちの、互いに異なるフレームから、天空画像データ410、雨滴画像データ420および前方画像データ430が抽出される。例えば、抽出部242は、画像データ400を形成する複数のフレーム1〜nのうち、7フレームおきのフレーム8、16から天空画像データ410を抽出する。また、抽出部242は、他の7フレームおきのフレーム4、12から雨滴画像データ420を抽出する。抽出部242は、残るフレームから前方画像データ430を抽出する。   In the illustrated example, the sky image data 410, the raindrop image data 420, and the forward image data 430 are extracted from different frames among the plurality of frames 1 to n of the image data 400. For example, the extraction unit 242 extracts the sky image data 410 from the frames 8 and 16 every 7 frames among the plurality of frames 1 to n forming the image data 400. Further, the extraction unit 242 extracts the raindrop image data 420 from the other frames 4 and 12 every other seven frames. The extraction unit 242 extracts the front image data 430 from the remaining frames.

ここで、前方画像データ430のひとつに着目すると、抽出部242は、原画像データのうち、前方領域330に対応する画素のアドレスを指定することにより、前方画像データ430が切り出される。よって、当該前方画像データ430には、内蔵処理装置250の天空画像データ解析部252および雨滴画像データ解析部254に出力される天空画像データ410および雨滴画像データ420は含まれない。   Here, focusing on one of the front image data 430, the extraction unit 242 extracts the front image data 430 by designating the address of the pixel corresponding to the front region 330 in the original image data. Therefore, the forward image data 430 does not include the sky image data 410 and the raindrop image data 420 output to the sky image data analysis unit 252 and the raindrop image data analysis unit 254 of the built-in processing device 250.

同様に、天空画像データ410は、天空領域310に対応する画素のアドレスが指定されることにより抽出され、前方画像データ430および雨滴画像データ420を含まない。また、雨滴画像データ420は、雨滴領域320に対応する画素のアドレスが指定されることにより抽出され、前方画像データ430および天空画像データ410を含まない。   Similarly, the sky image data 410 is extracted by designating the address of the pixel corresponding to the sky region 310, and does not include the forward image data 430 and the raindrop image data 420. Further, the raindrop image data 420 is extracted by designating an address of a pixel corresponding to the raindrop region 320, and does not include the forward image data 430 and the sky image data 410.

このように、画像データ400における各フレームは、フレーム単位で抽出先が決められる。よって、撮像制御部244は、撮像部220の撮像条件を、フレーム単位で最適化できる。従って、例えば、前方画像データ430として抽出されるフレームは、撮像領域300における前方領域330に適した撮像条件で撮像できる。   Thus, the extraction destination of each frame in the image data 400 is determined in units of frames. Therefore, the imaging control unit 244 can optimize the imaging conditions of the imaging unit 220 in units of frames. Therefore, for example, a frame extracted as the front image data 430 can be imaged under an imaging condition suitable for the front area 330 in the imaging area 300.

また、抽出部242により抽出された当該フレームにおいては、撮像条件が適していたとは限らない天空画像データ410および雨滴画像データ420は、外部処理装置270に出力することなく破棄されている。これにより、前方画像データ解析部272が抽出された前方画像データ430を解析する場合に、天空画像データ410および雨滴画像データ420が混在しないので、解析速度を向上させることができる。また、不要な天空画像データ410および雨滴画像データ420を含まないので、画像データ通信路262の容量に対する負荷も軽減される。   In the frame extracted by the extraction unit 242, the sky image data 410 and the raindrop image data 420 that are not necessarily suitable for the imaging conditions are discarded without being output to the external processing device 270. Accordingly, when the forward image data analysis unit 272 analyzes the extracted forward image data 430, the sky image data 410 and the raindrop image data 420 are not mixed, so that the analysis speed can be improved. Further, since unnecessary sky image data 410 and raindrop image data 420 are not included, the load on the capacity of the image data communication path 262 is also reduced.

同様に、撮像制御部244は、天空画像データ410として抽出されるフレームを生成する場合に、天空領域310を撮像する場合に最適な撮像条件で撮像を実行する。これにより、天空画像データ解析部252は、高品質な天空画像データ410から、明るさデータ251等を高精度に解析できる。   Similarly, the imaging control unit 244 executes imaging under an imaging condition optimal for imaging the sky region 310 when generating a frame extracted as the sky image data 410. Accordingly, the sky image data analysis unit 252 can analyze the brightness data 251 and the like from the high-quality sky image data 410 with high accuracy.

更に、撮像制御部244は、雨滴画像データ420として抽出されるフレームを生成する場合に、雨滴領域320を撮像する場合に最適な撮像条件で撮像を実行する。例えば、光源231の照射光により形成された雨滴領域320を鮮明に撮像する目的で、光源231の発光波長に対して撮像部220の感度を高くしてもよい。これにより、雨滴画像データ解析部254は、高品質な雨滴画像データ420から、明るさデータ251等を高精度に解析できる。   Furthermore, the imaging control unit 244 executes imaging under an imaging condition optimal for imaging the raindrop region 320 when generating a frame extracted as the raindrop image data 420. For example, the sensitivity of the imaging unit 220 may be increased with respect to the emission wavelength of the light source 231 for the purpose of clearly capturing the raindrop region 320 formed by the light emitted from the light source 231. Thereby, the raindrop image data analysis unit 254 can analyze the brightness data 251 and the like from the high-quality raindrop image data 420 with high accuracy.

図10は、図7に示した内部回路240の動作手順を示す流れ図である。車両100が起動されて車載カメラユニット200が動作を開始した場合、内部回路240は、まず、撮像制御部244において、撮像部220による撮像の撮像条件を撮像部220に設定する(ステップS101)。このステップで設定される撮像条件は、撮像部220が次に撮像するフレームの用途に応じて設定される。   FIG. 10 is a flowchart showing an operation procedure of the internal circuit 240 shown in FIG. When the vehicle 100 is activated and the in-vehicle camera unit 200 starts operating, the internal circuit 240 first sets the imaging condition of the imaging by the imaging unit 220 in the imaging unit 220 in the imaging control unit 244 (step S101). The imaging conditions set in this step are set according to the use of the frame that the imaging unit 220 captures next.

前方画像データ430用のフレームを撮像する場合に、撮像制御部244は、前方領域330の撮像に適した撮像条件を撮像部220に設定する。例えば、撮像制御部244は、撮像部220の撮像素子222の感度を高く設定すると共に前方撮像光学系224の絞り226の開度を小さくし、撮像部220の被写界深度を深くしてもよい。これにより、前方領域330の広い領域において、合焦した鮮明な像が撮像される。   When capturing a frame for the front image data 430, the imaging control unit 244 sets an imaging condition suitable for imaging the front region 330 in the imaging unit 220. For example, the imaging control unit 244 may set the sensitivity of the imaging element 222 of the imaging unit 220 to be high and reduce the opening of the aperture 226 of the front imaging optical system 224 to increase the depth of field of the imaging unit 220. Good. Thereby, a clear and focused image is captured in a wide area of the front area 330.

同様に、天空画像データ410用のフレームを撮像する場合に、撮像制御部244は、天空領域310の撮像に適した撮像条件を撮像部220に設定する。例えば、昼間であれば、天空領域310は、前方領域330よりも著しく明るい場合が多い。よって、撮像制御部244は、撮像素子222の撮像感度を低下させると共に、絞りを閉じてもよい。また、撮像制御部244は、撮像素子222の電荷蓄積時間を変化させて、撮影画像データ400の明るさを調節することもできる。   Similarly, when imaging a frame for the sky image data 410, the imaging control unit 244 sets an imaging condition suitable for imaging the sky region 310 in the imaging unit 220. For example, in the daytime, the sky region 310 is often significantly brighter than the front region 330. Therefore, the imaging control unit 244 may reduce the imaging sensitivity of the imaging element 222 and close the aperture. The imaging control unit 244 can also adjust the brightness of the captured image data 400 by changing the charge accumulation time of the imaging element 222.

また、雨滴画像データ420用のフレームを撮像する場合に、撮像制御部244は、雨滴領域320の撮像に適した撮像条件を撮像部220に設定する。例えば、雨滴領域320を撮像する場合に、光源231の照射光の帯域以外については撮像部220の感度を低下させてもよい。これにより、雨滴領域320に対するコントラストを強調して、雨滴画像データ420における背景の影響を抑制できる。   When capturing a frame for the raindrop image data 420, the imaging control unit 244 sets an imaging condition suitable for imaging the raindrop region 320 in the imaging unit 220. For example, when the raindrop region 320 is imaged, the sensitivity of the imaging unit 220 may be reduced in areas other than the band of light emitted from the light source 231. Thereby, the contrast with respect to the raindrop area 320 is emphasized, and the influence of the background in the raindrop image data 420 can be suppressed.

なお、撮像制御部244が設定する撮像条件を決定する場合に、直前に撮像した他のフレームの画像データ400を参照してもよい。即ち、直前に撮像したフレームにおいて、白とびが生じている場合には、これから撮像するフレームについては露出を抑制してもよい。   Note that when determining the imaging condition set by the imaging control unit 244, the image data 400 of another frame captured immediately before may be referred to. That is, in the case where overexposure occurs in the frame imaged immediately before, the exposure of the frame to be imaged from now on may be suppressed.

内部回路240において撮像条件が撮像部220に設定されると、撮像制御部244は、撮像部220に撮像領域300の撮像を実行させて、当該フレームを生成させる(ステップS102)。また、撮像制御部244は、当該フレームが、天空領域310、雨滴領域320および前方領域330のいずれに用いられるかを抽出部242に通知する。撮像部220により生成されたフレームを、抽出部242が取得する(ステップS103)。   When the imaging condition is set in the imaging unit 220 in the internal circuit 240, the imaging control unit 244 causes the imaging unit 220 to perform imaging of the imaging area 300 and generate the frame (step S102). In addition, the imaging control unit 244 notifies the extraction unit 242 which of the sky region 310, the raindrop region 320, and the front region 330 is used. The extraction unit 242 acquires the frame generated by the imaging unit 220 (step S103).

抽出部242は、撮像制御部244からの通知を参照して、今回取得したフレームが前方画像データ430用であるか否かを判断する(ステップS104)。当該フレームが前方画像データ430用である場合(ステップS104:YES)、抽出部242は、画像データ400から、前方画像データ430を抽出する(ステップS105)。   The extraction unit 242 refers to the notification from the imaging control unit 244 and determines whether or not the currently acquired frame is for the front image data 430 (step S104). When the frame is for the front image data 430 (step S104: YES), the extraction unit 242 extracts the front image data 430 from the image data 400 (step S105).

抽出部242は、前方画像データ430を、画像データ通信路262を通じて、内部回路240の外部に出力する(ステップS106)。なお、抽出された前方画像データ430を含むフレームにおける天空画像データ410および雨滴画像データ420は、車載カメラユニット200では使用されない。   The extraction unit 242 outputs the front image data 430 to the outside of the internal circuit 240 through the image data communication path 262 (step S106). Note that the sky image data 410 and the raindrop image data 420 in the frame including the extracted front image data 430 are not used in the in-vehicle camera unit 200.

先のステップS104において、今回取得したフレームが前方画像データ430用でない場合に(ステップS104:NO)、抽出部242は更に、当該フレームが天空画像データ410用であるか否かを判断する(ステップS108)。当該フレームが天空画像データ410用である場合(ステップS108:YES)、抽出部242は、画像データ400から、天空画像データ410を抽出する(ステップS109)。   In the previous step S104, when the frame acquired this time is not for the forward image data 430 (step S104: NO), the extraction unit 242 further determines whether or not the frame is for the sky image data 410 (step S104). S108). When the frame is for the sky image data 410 (step S108: YES), the extraction unit 242 extracts the sky image data 410 from the image data 400 (step S109).

抽出部242は、抽出された天空画像データ410を内蔵処理装置250に出力し、天空画像データ解析部252は当該天空画像データ410を解析する(ステップS110)。送信部256は、解析の結果得られた明るさデータ251を非画像データ通信路264から外部に出力する(ステップS111)。   The extraction unit 242 outputs the extracted sky image data 410 to the built-in processing device 250, and the sky image data analysis unit 252 analyzes the sky image data 410 (step S110). The transmission unit 256 outputs the brightness data 251 obtained as a result of the analysis from the non-image data communication path 264 to the outside (step S111).

非画像データ通信路264に出力された明るさデータ251は、既に説明した通り、例えば、外部処理装置270の灯火制御部274、ワイパ制御部276等から参照される。抽出された天空画像データ410を含むフレームにおける前方画像データ430および雨滴画像データ420は、車載カメラユニット200では使用されない。   The brightness data 251 output to the non-image data communication path 264 is referred to by, for example, the lighting control unit 274 and the wiper control unit 276 of the external processing device 270 as described above. The front image data 430 and the raindrop image data 420 in the frame including the extracted sky image data 410 are not used in the in-vehicle camera unit 200.

先のステップS108において、今回取得したフレームが天空画像データ410用でない場合(ステップS108:NO)、抽出部242は、当該フレームが雨滴画像データ420用であるとして、雨滴画像データ420を抽出する(ステップS112)。更に、抽出部242は、雨滴画像データ420を内蔵処理装置250に出力し、雨滴画像データ解析部254は、当該雨滴画像データ420を解析する(ステップS113)。   In the previous step S108, when the currently acquired frame is not for the sky image data 410 (step S108: NO), the extraction unit 242 extracts the raindrop image data 420 assuming that the frame is for the raindrop image data 420 ( Step S112). Further, the extraction unit 242 outputs the raindrop image data 420 to the built-in processing device 250, and the raindrop image data analysis unit 254 analyzes the raindrop image data 420 (step S113).

送信部256は、解析の結果得られた降雨データ253を非画像データ通信路264から外部に出力される(ステップS114)。非画像データ通信路264に出力された降雨データ253は、既に説明した通り、例えば、外部処理装置270の灯火制御部274、ワイパ制御部276等から参照される。なお、当該フレームに含まれる前方画像データ430および天空画像データ410は、車載カメラユニット200では使用されない。   The transmission unit 256 outputs the rain data 253 obtained as a result of the analysis from the non-image data communication path 264 to the outside (step S114). The rain data 253 output to the non-image data communication path 264 is referred to by, for example, the lighting control unit 274 and the wiper control unit 276 of the external processing device 270 as described above. Note that the front image data 430 and the sky image data 410 included in the frame are not used in the in-vehicle camera unit 200.

上記ステップS106、S111およびS114に続いて、次に、抽出部242は、車載カメラユニット200の動作を終了すべき旨の指示があるか否かを判断する(ステップS107)。原動機を停止させる等の車両100に対する操作から、車載カメラユニット200の動作を終了すべき旨の指示を検出した場合(ステップS107:YES)、抽出部242は車載カメラユニット200全体の動作を停止させる。また、動作を終了すべき旨の指示がない場合(ステップS107:NO)、抽出部242は、動作手順をステップS101に戻し、上記動作を繰り返す。   Subsequent to steps S106, S111, and S114, the extraction unit 242 determines whether there is an instruction to end the operation of the in-vehicle camera unit 200 (step S107). When an instruction to end the operation of the in-vehicle camera unit 200 is detected from an operation on the vehicle 100 such as stopping the prime mover (step S107: YES), the extraction unit 242 stops the operation of the entire in-vehicle camera unit 200. . If there is no instruction to end the operation (step S107: NO), the extraction unit 242 returns the operation procedure to step S101 and repeats the above operation.

上記のような一連の手順を繰り返すことにより、内部回路240は、前方画像データ430、天空画像データ410および雨滴画像データ420を継続的に抽出して、前方画像データ430、明るさデータ251および降雨データ253を、順次出力する。   By repeating a series of procedures as described above, the internal circuit 240 continuously extracts the forward image data 430, the sky image data 410, and the raindrop image data 420, and the forward image data 430, the brightness data 251 and the rainfall. Data 253 is sequentially output.

図11は、抽出部242における他の処理を説明する模式図である。図示の例では、画像データ400を形成する複数のフレーム1〜nの各々から前方画像データ430、天空画像データ410および雨滴画像データ420が抽出される。   FIG. 11 is a schematic diagram for explaining another process in the extraction unit 242. In the illustrated example, the forward image data 430, the sky image data 410, and the raindrop image data 420 are extracted from each of the plurality of frames 1 to n forming the image data 400.

すなわち1のフレーム1等から、前方画像データ430、天空画像データ410および雨滴画像データ420の3つが抽出される。よって、前方画像データ430、天空画像データ410および雨滴画像データ420が同く高いフレームレートで取得され、前方画像データ解析部272、天空画像データ解析部252および雨滴画像データ解析部254の各々において、時間的精度が高い解析ができる。   That is, three of the front image data 430, the sky image data 410, and the raindrop image data 420 are extracted from one frame 1 or the like. Therefore, the front image data 430, the sky image data 410, and the raindrop image data 420 are acquired at the same high frame rate. In each of the front image data analysis unit 272, the sky image data analysis unit 252, and the raindrop image data analysis unit 254, Analysis with high temporal accuracy is possible.

この場合に、撮像制御部244は、前方領域330、天空領域310および雨滴領域320を一括して共通の撮像条件で撮像する。このため、撮像条件が、前方領域330、天空領域310および雨滴領域320のすべてに対して最適になるとは限らない。   In this case, the imaging control unit 244 images the front area 330, the sky area 310, and the raindrop area 320 together under common imaging conditions. For this reason, the imaging conditions are not always optimal for all of the front area 330, the sky area 310, and the raindrop area 320.

しかしながら、前方画像データ解析部272、天空画像データ解析部252および雨滴画像データ解析部254は、撮像条件を考慮した画像処理を実行することにより、最適条件からずれた撮像条件を補償できる。例えば、前方画像データ430のコントラストを天空画像データ410のコントラストよりも強調してもよい。また、雨滴画像データ420の彩度を、前方画像データ430の彩度よりも意図的に低下させてもよい。   However, the forward image data analysis unit 272, the sky image data analysis unit 252 and the raindrop image data analysis unit 254 can compensate for an imaging condition deviating from the optimum condition by executing image processing in consideration of the imaging condition. For example, the contrast of the front image data 430 may be emphasized more than the contrast of the sky image data 410. Further, the saturation of the raindrop image data 420 may be intentionally lowered than the saturation of the front image data 430.

なお、内部回路240において抽出部242は、図9に示した処理と、図11に示した処理とを状況に応じて切り換えてもよい。即ち、時間的に昼間であることが判っており、晴天の場合は、図9に示したように、天空画像データ410および雨滴画像データ420を抽出する間隔を大きくしてもよい。これにより、前方画像データ430の時間的精度を向上させることができる。   In the internal circuit 240, the extraction unit 242 may switch between the process illustrated in FIG. 9 and the process illustrated in FIG. That is, it is known that it is daytime in time, and in the case of fine weather, as shown in FIG. 9, the interval for extracting the sky image data 410 and the raindrop image data 420 may be increased. Thereby, the time precision of the front image data 430 can be improved.

また、雨天であることが既に判明している場合は、図11に示したように、雨滴画像データ420の抽出間隔を狭くしてもよい。これにより、ワイパ制御部276における制御精度を向上させることができる。   If it is already known that it is raining, the extraction interval of the raindrop image data 420 may be narrowed as shown in FIG. Thereby, the control accuracy in the wiper control unit 276 can be improved.

このように、内部回路240における抽出部242は、撮像部220から取得した原画像データである画像データ400のうち、内蔵処理装置250の天空画像データ解析部252および雨滴画像データ解析部254に出力した部分を含まない前方画像データ430を、外部処理装置270に出力する。これにより、外部処理装置270に前方画像データ430を出力する場合の通信負荷を軽減できると共に、外部処理装置270の前方画像データ解析部272における解析処理の精度を向上させることができる。   As described above, the extraction unit 242 in the internal circuit 240 outputs the image data 400 that is the original image data acquired from the imaging unit 220 to the sky image data analysis unit 252 and the raindrop image data analysis unit 254 of the built-in processing device 250. The front image data 430 that does not include the corrected portion is output to the external processing device 270. As a result, the communication load when the front image data 430 is output to the external processing device 270 can be reduced, and the accuracy of the analysis processing in the front image data analysis unit 272 of the external processing device 270 can be improved.

図12は、他の内部回路241のブロック図である。図7に示した内部回路240と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 12 is a block diagram of another internal circuit 241. Elements common to the internal circuit 240 shown in FIG. 7 are assigned the same reference numerals, and redundant descriptions are omitted.

内部回路241は、天空画像データ解析部252、雨滴画像データ解析部254および送信部256が、抽出部242等と共に実装されている。このような内部回路241は、例えばSoC(System on Chip)として一体のモジュールとして製造できる。よって、内部回路241を一体化することにより、車載カメラユニット200を小型化できると共に、内部配線を短縮して、処理を高速化し、更に、内部回路241の信頼性を向上できる。   In the internal circuit 241, the sky image data analysis unit 252, the raindrop image data analysis unit 254, and the transmission unit 256 are mounted together with the extraction unit 242 and the like. Such an internal circuit 241 can be manufactured as an integrated module, for example, as a SoC (System on Chip). Therefore, by integrating the internal circuit 241, the in-vehicle camera unit 200 can be downsized, the internal wiring can be shortened, the processing speed can be increased, and the reliability of the internal circuit 241 can be improved.

図13は、また他の内部回路243のブロック図である。図7に示した内部回路240と共通の要素には同じ参照番号を付して重複する説明を省く。   FIG. 13 is a block diagram of another internal circuit 243. Elements common to the internal circuit 240 shown in FIG. 7 are assigned the same reference numerals, and redundant descriptions are omitted.

内部回路243は、抽出部242および撮像制御部244を備える。また、内部回路243は、外部に配された付属処理装置258を備える。   The internal circuit 243 includes an extraction unit 242 and an imaging control unit 244. The internal circuit 243 includes an accessory processing device 258 arranged outside.

付属処理装置258は、天空画像データ解析部252、雨滴画像データ解析部254および送信部256を有する。付属処理装置258は、専用線を通じて内部回路243に結合されてもよい。また、付属処理装置258は、MOSTバス等を通じて内部回路243に結合されてもよい。いずれの場合も、付属処理装置258は、内部回路243から天空画像データ410および雨滴画像データ420を取得して解析する。   The accessory processing device 258 includes a sky image data analysis unit 252, a raindrop image data analysis unit 254, and a transmission unit 256. The accessory processor 258 may be coupled to the internal circuit 243 through a dedicated line. Further, the accessory processing device 258 may be coupled to the internal circuit 243 through a MOST bus or the like. In any case, the accessory processing device 258 acquires the sky image data 410 and the raindrop image data 420 from the internal circuit 243 and analyzes them.

このような構造により、内部回路243の構造を簡素化して、車載カメラユニット200を小型化、廉価化できる。また、付属処理装置258を交換して、天空画像データ解析部252および雨滴画像データ解析部254の機能および性能を簡単に変更できる。   With such a structure, the structure of the internal circuit 243 can be simplified, and the in-vehicle camera unit 200 can be reduced in size and cost. In addition, the functions and performances of the sky image data analysis unit 252 and the raindrop image data analysis unit 254 can be easily changed by replacing the accessory processing device 258.

なお、上記図9の形態において、抽出部242は、前方画像データ430を画像データ通信路262から外部に出力しているが、これに代えて、前方画像データ430を含むフレーム全体を外部に出力してもよい。同様に、図11の形態においても、抽出部242は、前方画像データ430を含むフレーム全体を外部に出力してもよい。   9, the extraction unit 242 outputs the front image data 430 to the outside from the image data communication path 262, but instead outputs the entire frame including the front image data 430 to the outside. May be. Similarly, also in the form of FIG. 11, the extraction unit 242 may output the entire frame including the front image data 430 to the outside.

以上、本発明を実施の形態を用いて説明した。しかしながら、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   The present invention has been described above using the embodiment. However, the technical scope of the present invention is not limited to the scope described in the above embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, and method shown in the claims, the specification, and the drawings is particularly “before”, “prior”, etc. It should be noted that it can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 車両、110 ウインドシールド、112 ルームミラー、114 支持部、116 反射防止層、120 ワイパ、130 ライトユニット、200 車載カメラユニット、210 天空撮像光学系、211 ライトガイドユニット、212 入射端、214 射出端、216 クラッド層、220 撮像部、222 撮像素子、224 前方撮像光学系、226 絞り装置、230 雨滴撮像光学系、231 光源、232 プリズム、233、234、235 反射鏡、240、241、243 内部回路、242 抽出部、244 撮像制御部、250 内蔵処理装置、251 明るさデータ、252 天空画像データ解析部、253 降雨データ、254 雨滴画像データ解析部、256 送信部、258 付属処理装置、262 画像データ通信路、264 非画像データ通信路、270 外部処理装置、272 画像データ解析部、274 灯火制御部、276 ワイパ制御部、300 撮像領域、310 天空領域、320 雨滴領域、330 前方領域、400 画像データ、410 天空画像データ、420 雨滴画像データ、430 前方画像データ DESCRIPTION OF SYMBOLS 100 Vehicle, 110 Windshield, 112 Room mirror, 114 Support part, 116 Antireflection layer, 120 Wiper, 130 Light unit, 200 Car-mounted camera unit, 210 Sky imaging optical system, 211 Light guide unit, 212 Entrance end, 214 Exit end 216 Cladding layer, 220 Imaging unit, 222 Imaging element, 224 Front imaging optical system, 226 Aperture device, 230 Raindrop imaging optical system, 231 Light source, 232 Prism, 233, 234, 235 Reflective mirror, 240, 241, 243 Internal circuit 242 Extraction unit, 244 Imaging control unit, 250 Built-in processing device, 251 Brightness data, 252 Sky image data analysis unit, 253 Rainfall data, 254 Raindrop image data analysis unit, 256 Transmitter, 258 Attached processing device, 262 Image data Through Communication path, 264 Non-image data communication path, 270 External processing device, 272 Image data analysis section, 274 Lighting control section, 276 Wiper control section, 300 Imaging area, 310 Sky area, 320 Raindrop area, 330 Front area, 400 Image data 410 Sky image data, 420 Raindrop image data, 430 Front image data

Claims (4)

被写体を撮像する撮像素子と、
前記撮像素子で生成された画像データを取得する取得部と、
を備え、
前記取得部で取得された前記画像データのうち一部の領域の画像データを撮像するための撮像条件と、前記一部の領域以外の画像データを撮像するための撮像条件とが異なる撮像装置。
An image sensor for imaging a subject;
An acquisition unit for acquiring image data generated by the imaging device;
With
An imaging apparatus in which an imaging condition for imaging image data of a partial area of the image data acquired by the acquisition unit is different from an imaging condition for imaging image data other than the partial area.
前記画像データのうち前記一部の領域以外の画像データを出力する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein image data other than the partial area is output from the image data. 前記撮像条件は、前記撮像素子に入射する光の量を調節する絞りの設定を含む請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging condition includes a setting of a diaphragm that adjusts an amount of light incident on the imaging element. 前記画像データのうち一部の領域の画像データを処理する画像処理部をさらに備える請求項1から3の何れか一項に記載の撮像装置。   The imaging device according to any one of claims 1 to 3, further comprising an image processing unit that processes image data of a partial area of the image data.
JP2019036973A 2019-02-28 2019-02-28 Imaging device Pending JP2019132847A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019036973A JP2019132847A (en) 2019-02-28 2019-02-28 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036973A JP2019132847A (en) 2019-02-28 2019-02-28 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017103884A Division JP6489155B2 (en) 2017-05-25 2017-05-25 Image processing apparatus and camera

Publications (1)

Publication Number Publication Date
JP2019132847A true JP2019132847A (en) 2019-08-08

Family

ID=67547401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036973A Pending JP2019132847A (en) 2019-02-28 2019-02-28 Imaging device

Country Status (1)

Country Link
JP (1) JP2019132847A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289787A (en) * 2002-11-05 2004-10-14 Crf Soc Consortile Per Azioni Multifunctional integrated visual system having cmos or ccd technology matrix
JP2006060425A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2007184814A (en) * 2006-01-10 2007-07-19 Seiko Epson Corp Imaging element and imaging apparatus
JP2009255722A (en) * 2008-04-16 2009-11-05 Denso Corp Traveling environment detection method and lighting unit control device for vehicle
US20100020170A1 (en) * 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289787A (en) * 2002-11-05 2004-10-14 Crf Soc Consortile Per Azioni Multifunctional integrated visual system having cmos or ccd technology matrix
JP2006060425A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2007184814A (en) * 2006-01-10 2007-07-19 Seiko Epson Corp Imaging element and imaging apparatus
JP2009255722A (en) * 2008-04-16 2009-11-05 Denso Corp Traveling environment detection method and lighting unit control device for vehicle
US20100020170A1 (en) * 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System

Similar Documents

Publication Publication Date Title
US10377322B2 (en) In-vehicle camera and vehicle control system
EP3085073B1 (en) Object detection apparatus, moving body device control system and program therefor
JP4326999B2 (en) Image processing system
JP5561333B2 (en) Image processing apparatus, imaging method, program, and vehicle
US10390004B2 (en) Stereo gated imaging system and method
JP4327024B2 (en) Image processing system
EP2854075A2 (en) Vehicle control system and image sensor
US20140247357A1 (en) Attached matter detector, and attached matter detection method
US10923076B2 (en) Display device, display system, mobile object, display-brightness control method, and recording medium storing program code
JP2013190416A (en) Deposit detection device and in-vehicle equipment controller including the same
JP2014052364A (en) Deposit detection device, equipment control system for mobile device, and mobile device
JP6555569B2 (en) Image processing apparatus, mobile device control system, and image processing program
WO2022097450A1 (en) Raindrop detection device
US11953708B2 (en) Camera device
JP5839253B2 (en) Object detection device and in-vehicle device control device including the same
JP6489155B2 (en) Image processing apparatus and camera
JP2015031564A (en) Deposit detection device, and equipment control system for transfer device
JP2019132847A (en) Imaging device
JP6149376B2 (en) Image processing apparatus and in-vehicle camera unit
CN103826938A (en) Image capturing device for a vehicle
JP2014170014A (en) Image processor, imaging method, program, and vehicle
JP5436892B2 (en) Vehicle imaging device
JP2015194388A (en) Imaging device and imaging system
US20230152429A1 (en) Auto-Exposure Occlusion Camera
WO2013035320A1 (en) Observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200901