JP7113283B2 - Imaging device, imaging system, vehicle driving control system, and image processing device - Google Patents

Imaging device, imaging system, vehicle driving control system, and image processing device Download PDF

Info

Publication number
JP7113283B2
JP7113283B2 JP2018086282A JP2018086282A JP7113283B2 JP 7113283 B2 JP7113283 B2 JP 7113283B2 JP 2018086282 A JP2018086282 A JP 2018086282A JP 2018086282 A JP2018086282 A JP 2018086282A JP 7113283 B2 JP7113283 B2 JP 7113283B2
Authority
JP
Japan
Prior art keywords
image data
image
code
pixels
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018086282A
Other languages
Japanese (ja)
Other versions
JP2018201196A (en
Inventor
嘉晃 佐藤
佳壽子 西村
康夫 三宅
修 柴田
浩 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2018201196A publication Critical patent/JP2018201196A/en
Priority to JP2022081981A priority Critical patent/JP7331201B2/en
Application granted granted Critical
Publication of JP7113283B2 publication Critical patent/JP7113283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • G03B11/04Hoods or caps for eliminating unwanted light from lenses, viewfinders or focusing aids
    • G03B11/045Lens hoods or shields
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/16Control of exposure by setting shutters, diaphragms or filters, separately or conjointly in accordance with both the intensity of the flash source and the distance of the flash source from the object, e.g. in accordance with the "guide number" of the flash bulb and the focusing of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Optical Communication System (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Description

本開示は、撮像装置、撮像システム、車両走行制御システム及び画像処理装置に関する。 The present disclosure relates to imaging devices, imaging systems, vehicle travel control systems, and image processing devices.

撮像装置を利用した情報の取得方法として、画像読み取り方式が知られている。画像読み取り方式とは、バーコード又はQRコード(登録商標)に代表される一次元又は二次元のコードから、情報を取得する技術である。この方式は、撮像された1枚の画像から情報を取得できる。また、この方式は、1枚の画像内に存在する複数のコードから情報を取得することも可能である。よって、この方式は、車両等の対象が移動中に情報を取得し、取得した情報に基づいて制御又は判断を行う際に有用である。例えば、テールランプ又は信号機にコードを表示し、コードから得られた情報を利用して車両を制御する方法も提案されている(例えば特許文献1及び2参照)。 An image reading method is known as a method of acquiring information using an imaging device. The image reading method is a technique for acquiring information from a one-dimensional or two-dimensional code typified by a bar code or QR code (registered trademark). This method can acquire information from a single captured image. This method can also acquire information from multiple codes existing in one image. Therefore, this method is useful when information is acquired while an object such as a vehicle is moving, and control or judgment is performed based on the acquired information. For example, a method has been proposed in which a code is displayed on a tail lamp or a traffic light and the information obtained from the code is used to control the vehicle (see Patent Documents 1 and 2, for example).

特開2012-221303号公報JP 2012-221303 A 特開2014-93700号公報Japanese Patent Application Laid-Open No. 2014-93700

画像読み取り方式により情報を取得するためには、高精度にコードを抽出できることが望まれている。 In order to acquire information by the image reading method, it is desired to be able to extract the code with high accuracy.

本開示の限定的ではないある例示的な実施形態によれば、以下が提供される。 According to certain non-limiting exemplary embodiments of the present disclosure, the following are provided.

非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部とを備え、前記撮影部は、可視光に感度を有する複数の第1画素により前記第1画像データを取得し、非可視光に感度を有する複数の第2画素により前記第2画像データを取得し、前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理後の前記第1画像データ及び前記第2画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出する、撮像装置。 an imaging unit that acquires first image data and second image data including an image of an object displaying a code with invisible light; and extracting the code based on the first image data and the second image data. and an image processing unit that acquires the first image data using a plurality of first pixels that are sensitive to visible light, and obtains the second image data using a plurality of second pixels that are sensitive to invisible light. The image processing unit acquires image data, performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and converts the first image data and the second image data after the correction processing. An imaging device that generates third image data from a difference in image data and extracts the code based on the third image data.

包括的または具体的な態様は、素子、デバイス、モジュール、システム、集積回路または方法で実現されてもよい。また、包括的または具体的な態様は、素子、デバイス、モジュール、システム、集積回路および方法の任意の組み合わせによって実現されてもよい。 A generic or specific aspect may be embodied in an element, device, module, system, integrated circuit or method. Also, the generic or specific aspects may be implemented by any combination of elements, devices, modules, systems, integrated circuits and methods.

開示された実施形態の追加的な効果および利点は、明細書および図面から明らかになる。効果および/または利点は、明細書および図面に開示の様々な実施形態または特徴によって個々に提供され、これらの1つ以上を得るために全てを必要とはしない。 Additional effects and advantages of the disclosed embodiments will become apparent from the specification and drawings. Benefits and/or advantages are provided individually by the various embodiments or features disclosed in the specification and drawings, and not all are required to obtain one or more of these.

本開示は、高精度にコードを抽出できる撮像装置、撮像システム、車両走行制御システム又は画像処理装置を提供できる。 The present disclosure can provide an imaging device, an imaging system, a vehicle travel control system, or an image processing device that can extract codes with high accuracy.

第1の実施形態に係る、赤外光により表示されたコードを含む画像の一例を示す図である。FIG. 4 is a diagram showing an example of an image including a code displayed with infrared light according to the first embodiment; 第1の実施形態に係る第3画像の一例を示す図である。It is a figure which shows an example of the 3rd image which concerns on 1st Embodiment. 第1の実施形態に係る車両走行制御システムの構成例を示す図である。1 is a diagram showing a configuration example of a vehicle travel control system according to a first embodiment; FIG. 第1の実施形態に係る撮影部の構成例を示す図である。3 is a diagram illustrating a configuration example of an imaging unit according to the first embodiment; FIG. 第1の実施形態に係る画素の回路構成の一例を示す図である。3 is a diagram showing an example of a circuit configuration of a pixel according to the first embodiment; FIG. 第1の実施形態に係る画素の回路構成の一例を示す図である。3 is a diagram showing an example of a circuit configuration of a pixel according to the first embodiment; FIG. 第1の実施形態に係る光電変換部の一例を示す断面図である。2 is a cross-sectional view showing an example of a photoelectric conversion unit according to the first embodiment; FIG. 第1の実施形態に係る単位画素の色配列の一例を示す図である。4 is a diagram showing an example of a color arrangement of unit pixels according to the first embodiment; FIG. 第1の実施形態に係る単位画素の色配列の一例を示す図である。4 is a diagram showing an example of a color arrangement of unit pixels according to the first embodiment; FIG. 第1の実施形態に係る単位画素の色配列の一例を示す図である。4 is a diagram showing an example of a color arrangement of unit pixels according to the first embodiment; FIG. 第1の実施形態に係る単位画素の色配列の一例を示す図である。4 is a diagram showing an example of a color arrangement of unit pixels according to the first embodiment; FIG. 第1の実施形態に係るコードの一例を示す図である。It is a figure which shows an example of the code|cord|chord which concerns on 1st Embodiment. 第1の実施形態に係るコードの一例を示す図である。It is a figure which shows an example of the code|cord|chord which concerns on 1st Embodiment. 第1の実施形態に係るコードの一例を示す図である。It is a figure which shows an example of the code|cord|chord which concerns on 1st Embodiment. 第1の実施形態に係るコードの一例を示す図である。It is a figure which shows an example of the code|cord|chord which concerns on 1st Embodiment. 第1の実施形態に係る車両走行制御システムのブロック図である。1 is a block diagram of a vehicle cruise control system according to a first embodiment; FIG. 第2の実施形態に係る撮像システムのブロック図である。2 is a block diagram of an imaging system according to a second embodiment; FIG. 第2の実施形態に係る、第1画像と第2画像とを同時に取得する場合の情報取得処理のフローチャートである。10 is a flowchart of information acquisition processing when acquiring a first image and a second image at the same time according to the second embodiment; 第2の実施形態に係る、第1画像と第2画像とを順次に取得する場合の情報取得処理のフローチャートである。FIG. 10 is a flowchart of information acquisition processing when sequentially acquiring a first image and a second image according to the second embodiment; FIG. 第3の実施形態に係る画像処理装置のブロック図である。FIG. 11 is a block diagram of an image processing apparatus according to a third embodiment; FIG. 第3の実施形態に係る、第1画像と第2画像とを同時に取得する場合の情報取得処理のフローチャートである。FIG. 11 is a flowchart of information acquisition processing when acquiring a first image and a second image at the same time according to the third embodiment; FIG. 第3の実施形態に係るR画素、G画素及びB画素の分光感度特性の一例を示す図である。It is a figure which shows an example of the spectral sensitivity characteristic of R pixel, G pixel, and B pixel which concern on 3rd Embodiment. 第3の実施形態に係るIR画素の分光感度特性の一例を示す図である。FIG. 11 is a diagram showing an example of spectral sensitivity characteristics of IR pixels according to the third embodiment; 第3の実施形態に係る、第1画像と第2画像とを順次に取得する場合の情報取得処理のフローチャートである。FIG. 11 is a flowchart of information acquisition processing when sequentially acquiring a first image and a second image according to the third embodiment; FIG. 第3の実施形態に係るG画素の分光感度特性の一例を示す図である。It is a figure which shows an example of the spectral sensitivity characteristic of G pixel which concerns on 3rd Embodiment. 第3の実施形態に係るG+IR画素の分光感度特性の一例を示す図である。FIG. 11 is a diagram showing an example of spectral sensitivity characteristics of G+IR pixels according to the third embodiment; 第4の実施形態に係る太陽光のスペクトルの一例を示す図である。It is a figure which shows an example of the spectrum of sunlight which concerns on 4th Embodiment. 第4の実施形態に係る、R画素、G画素及びB画素の分光感度特性と太陽光のスペクトルとの乗算結果を示す図である。FIG. 14 is a diagram showing a result of multiplication of spectral sensitivity characteristics of R pixels, G pixels, and B pixels and the spectrum of sunlight according to the fourth embodiment; 第4の実施形態に係る、IR画素の分光感度特性と太陽光のスペクトルとの乗算結果を示す図である。FIG. 11 is a diagram showing a result of multiplication of spectral sensitivity characteristics of IR pixels and the spectrum of sunlight according to the fourth embodiment; 第5の実施形態に係る画像処理装置のブロック図である。FIG. 11 is a block diagram of an image processing apparatus according to a fifth embodiment; FIG. 第5の実施形態に係る、第1画像と第2画像とを同時に取得する場合の情報取得処理のフローチャートである。FIG. 14 is a flowchart of information acquisition processing when acquiring a first image and a second image simultaneously according to the fifth embodiment; FIG. 実施形態に係る、ローリングシャッタ動作によって撮像されたコードの像の一例を示す図である。FIG. 4 is a diagram showing an example of a code image captured by a rolling shutter operation according to the embodiment; 実施形態に係る、グローバルシャッタ動作によって撮像されたコードの像の一例を示す図である。FIG. 10 is a diagram showing an example of an image of a code imaged by global shutter operation according to the embodiment;

(本開示に至った知見)
画像読み取り方式による情報の取得においては、高精度にコードを抽出することが課題である。撮像された画像内に存在する複数のコードを高速かつ高精度に抽出できれば、ADAS(Advanced Driver Assistance System)技術又は自動運転技術等に対して、車両制御の自動化又は乗員に対する新たな情報提供手段として有用である。
(Knowledge leading to this disclosure)
In the acquisition of information by the image reading method, it is a problem to extract the code with high accuracy. If multiple codes existing in the captured image can be extracted at high speed and with high accuracy, it can be used as a means of automating vehicle control or providing new information to passengers for ADAS (Advanced Driver Assistance System) technology or automatic driving technology. Useful.

本開示の一態様の概要は以下のとおりである。 A summary of one aspect of the present disclosure follows.

本開示の一態様に係る撮像装置は、非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部とを備え、前記撮影部は、可視光に感度を有する複数の第1画素により前記第1画像データを取得し、非可視光に感度を有する複数の第2画素により前記第2画像データを取得し、前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理後の前記第1画像データ及び前記第2画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出する。 An imaging device according to an aspect of the present disclosure includes an imaging unit that acquires first image data and second image data including an image of an object that displays a code with invisible light; 2, an image processing unit for extracting the code based on image data, wherein the imaging unit acquires the first image data by a plurality of first pixels sensitive to visible light, and sensitive to non-visible light; and the image processing unit performs a correction process of multiplying at least one of the first image data and the second image data by a correction coefficient, and corrects the Third image data is generated from the difference between the first image data and the second image data, and the code is extracted based on the third image data.

これによれば、撮像装置は、可視光が撮影された第1画像データと、非可視光が撮影された第2画像データとの差分処理により第3画像データを生成する。これにより、第3画像データにおけるコードのコントラストを高くすることができるので、撮像装置は、高精度にコードを抽出できる。 According to this, the imaging device generates the third image data by difference processing between the first image data in which visible light is captured and the second image data in which non-visible light is captured. As a result, the contrast of the code in the third image data can be increased, so that the imaging device can extract the code with high precision.

また、これによれば、撮像装置は、第1画像データと第2画像データとの信号強度の差を小さくできるので、第3画像データにおけるコードのコントラストをより高くできる。これにより、撮像装置は、より高精度にコードを抽出できる。 Further, according to this, the imaging device can reduce the difference in signal intensity between the first image data and the second image data, so that the code contrast in the third image data can be made higher. This allows the imaging device to extract the code with higher accuracy.

例えば、前記画像処理部は、前記第2画像データにおける前記コード以外の像の信号強度が、前記第1画像データにおける前記コード以外の像の信号強度よりも大きくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行ってもよい。 For example, the image processing unit processes the first image data such that the signal intensity of the image other than the code in the second image data is greater than the signal intensity of the image other than the code in the first image data. and the correction process of multiplying at least one of the second image data by the correction coefficient.

例えば、前記対象物の一部は、非可視光を発光し、前記対象物は、前記一部において非可視光を発光することで前記コードを表示してもよい。 For example, a portion of the object may emit invisible light, and the object may display the code by emitting invisible light at the portion.

例えば、前記対象物の一部は、非可視光に対する反射率が可視光に対する反射率よりも高く、前記対象物は、前記一部において非可視光を反射することで前記コードを表示してもよい。 For example, a part of the object has a higher reflectance for invisible light than a reflectance for visible light, and the part of the object reflects the invisible light to display the code. good.

例えば、前記第2画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第1強度とし、前記コード以外の像の信号強度のうち最も大きいものを第2強度とし、前記第3画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第3強度とし、前記コード以外の像の信号強度のうち最も大きいものを第4強度としたとき、前記第4強度に対する前記第3強度の比は、前記第2強度に対する前記第1強度の比よりも大きくてもよい。 For example, in the second image data, the highest signal intensity of the image of the code is set as the first intensity, the highest signal intensity of the image other than the code is set as the second intensity, and the third image. In the data, the highest signal intensity of the code image is set as the third intensity, and the highest signal intensity of the image other than the code is set as the fourth intensity. The intensity ratio may be greater than the ratio of said first intensity to said second intensity.

例えば、前記画像処理部は、前記第1画像データにおける前記コード以外の像の信号強度と、前記第2画像データにおける前記コード以外の像の信号強度との差が小さくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行ってもよい。 For example, the image processing unit may reduce the difference between the signal intensity of the image other than the code in the first image data and the signal intensity of the image other than the code in the second image data. The correction process may be performed by multiplying at least one of the image data and the second image data by the correction coefficient.

これによれば、第1画像データと第2画像データとの信号強度の差を小さくできるので、第3画像データにおけるコードのコントラストをより高くできる。これにより、撮像装置は、より高精度にコードを抽出できる。 According to this, since the difference in signal strength between the first image data and the second image data can be reduced, the code contrast in the third image data can be increased. This allows the imaging device to extract the code with higher accuracy.

例えば、前記補正係数は、前記第1画素の第1分光感度特性と、前記第2画素の第2分光感度特性とに基づいて算出されてもよい。 For example, the correction coefficient may be calculated based on a first spectral sensitivity characteristic of the first pixel and a second spectral sensitivity characteristic of the second pixel.

例えば、前記補正係数は、前記第1分光感度特性に太陽光スペクトルを乗算することで得られる第1特性と、前記第2分光感度特性に前記太陽光スペクトルを乗算することで得られる第2特性とに基づいて算出されてもよい。 For example, the correction coefficient is a first characteristic obtained by multiplying the first spectral sensitivity characteristic by the sunlight spectrum, and a second characteristic obtained by multiplying the second spectral sensitivity characteristic by the sunlight spectrum. and may be calculated based on.

これによれば、太陽光のスペクトルを考慮することで、第3画像データにおけるコードのコントラストをより高くできる。これにより、撮像装置は、より高精度にコードを抽出できる。 According to this, the contrast of the code in the third image data can be made higher by considering the spectrum of sunlight. This allows the imaging device to extract the code with higher accuracy.

例えば、前記第2画素は可視光にも感度を有していてもよい。 For example, the second pixels may also be sensitive to visible light.

例えば、昼間か夜間かを判断する昼夜判断部をさらに備え、前記昼夜判断部が昼間であると判断した場合は、前記画像処理部は前記第3画像データに基づいて前記コードを抽出し、前記昼夜判断部が夜間であると判断した場合は、前記画像処理部は前記第2画像データに基づいて前記コードを抽出してもよい。 For example, a day/night determination unit for determining whether it is daytime or nighttime is further provided, and when the day/night determination unit determines that it is daytime, the image processing unit extracts the code based on the third image data, The image processing unit may extract the code based on the second image data when the day/night determination unit determines that it is nighttime.

これによれば、太陽光に含まれる非可視光の影響が少ない夜間において、撮像装置の処理量を低減できる。 According to this, it is possible to reduce the processing amount of the imaging device at night when the influence of invisible light contained in sunlight is small.

例えば、前記画像処理部は、抽出された前記コードに対応付けられている情報を取得してもよい。また例えば、前記情報は、交通情報を含んでいてもよい。 For example, the image processing section may acquire information associated with the extracted code. Further, for example, the information may include traffic information.

例えば、前記第1画素と前記第2画素とは、別個の画素であってもよい。 For example, the first pixel and the second pixel may be separate pixels.

これによれば、撮像装置は、第1画像データと第2画像データとを同時に取得できる。よって、撮像装置は、動きにより生じる第1画像データと第2画像データとの間の像のずれを低減できるので、より高精度にコードを抽出できる。 According to this, the imaging device can acquire the first image data and the second image data at the same time. Therefore, the imaging device can reduce the shift of the image between the first image data and the second image data caused by the movement, so that the code can be extracted with higher accuracy.

例えば、前記第1画素と前記第2画素とは同一の第3画素であり、前記第3画素は、可視光に感度を有する第1状態と、非可視光に感度を有する第2状態とを有し、前記撮影部は、前記第1状態にある前記第3画素により前記第1画像データを取得し、前記第2状態にある前記第3画素により前記第2画像データを取得してもよい。 For example, the first pixel and the second pixel are the same third pixel, and the third pixel has a first state sensitive to visible light and a second state sensitive to invisible light. wherein the photographing unit acquires the first image data from the third pixels in the first state and acquires the second image data from the third pixels in the second state .

これによれば、撮像装置は、第1画像データと第2画像データとを同一の画素で取得できる。よって、撮像装置は、画素数を低減できる。 According to this, the imaging device can acquire the first image data and the second image data with the same pixels. Therefore, the imaging device can reduce the number of pixels.

例えば、前記第1画素が前記第1画像データを取得するときの露光期間の開始及び終了のタイミングは、前記第2画素が前記第2画像データを取得するときの露光期間の開始及び終了のタイミングと同一であってもよい。 For example, the timing of the start and end of the exposure period when the first pixel acquires the first image data is the timing of the start and end of the exposure period when the second pixel acquires the second image data. may be the same as

これによれば、撮像装置は、動きにより生じるコードの像の歪みを低減できるので、より高精度にコードを抽出できる。 According to this, the imaging device can reduce the distortion of the image of the code caused by movement, so that the code can be extracted with higher accuracy.

例えば、前記撮影部は、複数のフレーム期間のそれぞれにおいて前記第1画像データ及び第2画像データを取得し、前記画像処理部は、前記複数のフレーム期間のうちの一部のフレーム期間に対してのみ前記コードを抽出してもよい。 For example, the imaging unit acquires the first image data and the second image data in each of a plurality of frame periods, and the image processing unit acquires the first image data and the second image data in each of the plurality of frame periods. may extract the code only.

本開示の一態様に係る撮像システムは、前記撮像装置と、前記情報をユーザに通知する通知部とを備える。 An imaging system according to an aspect of the present disclosure includes the imaging device and a notification unit that notifies a user of the information.

本開示の一態様に係る車両走行制御システムは、前記撮像装置と、前記情報に基づいて、車両の制動及び加速を制御する車両制御部とを備える。 A vehicle cruise control system according to an aspect of the present disclosure includes the imaging device and a vehicle control unit that controls braking and acceleration of a vehicle based on the information.

本開示の一態様に係る画像処理装置は、非可視光によりコードを表示する対象物の可視光像を含む第1画像データと、前記対象物の非可視光像を含む第2画像データとに基づいて、前記コードを抽出する画像処理部を備え、前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出する。 An image processing device according to an aspect of the present disclosure is configured such that first image data including a visible light image of an object for displaying a code with invisible light and second image data including an invisible light image of the object are an image processing unit for extracting the code based on the code, the image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and obtains the code by the correction processing. Third image data is generated from the difference between the two image data, and the code is extracted based on the third image data.

これによれば、画像処理装置は、可視光が撮影された第1画像データと、非可視光が撮影された第2画像データとの差分処理により第3画像データを生成する。これにより、画像処理装置は、第3画像データにおけるコードの像のコントラストを高くすることができるので、高精度にコードを抽出できる。 According to this, the image processing device generates the third image data by difference processing between the first image data in which visible light is captured and the second image data in which non-visible light is captured. As a result, the image processing device can increase the contrast of the image of the code in the third image data, so that the code can be extracted with high accuracy.

例えば、前記画像処理部は、抽出された前記コードに対応づけられている情報を取得してもよい。 For example, the image processing section may acquire information associated with the extracted code.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.

以下、図面を参照しながら、本開示の実施形態を詳細に説明する。なお、以下で説明する実施形態は、いずれも包括的又は具体的な例を示す。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは一例であり、本開示を限定する主旨ではない。本明細書において説明される種々の態様は、矛盾が生じない限り互いに組み合わせることが可能である。また、以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。以下の説明において、実質的に同じ機能を有する構成要素は共通の参照符号で示し、説明を省略することがある。本明細書において、「画像データ」は画像情報を含むデータを意味する。また、「画像データ」を単に「画像」と表記することがある。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In addition, all the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. The various aspects described herein are combinable with each other unless inconsistent. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as optional constituent elements. In the following description, constituent elements having substantially the same functions are denoted by common reference numerals, and their description may be omitted. As used herein, "image data" means data containing image information. Also, "image data" may be simply referred to as "image".

(第1の実施形態)
まず、本実施形態に係る車両走行制御システム100の構成及び動作を説明する。
(First embodiment)
First, the configuration and operation of the vehicle travel control system 100 according to this embodiment will be described.

車両走行制御システム100は、車両に搭載した撮像装置101を含む。撮像装置101がコードを読み取り、コードに対応付けられた情報を取得する。 A vehicle travel control system 100 includes an imaging device 101 mounted on a vehicle. The imaging device 101 reads the code and acquires information associated with the code.

図3は、本実施形態に係る車両走行制御システム100のハードウェア構成の一例を示す図である。図3に示す車両走行制御システム100は、撮像装置101と、光学系102と、表示部103と、ネットワーク通信部104と、電子制御ユニットであるECU105とを含む。撮像装置101は、撮影部111と、ISP112と、システムコントローラ115と、画像送信部113と、情報取得部114とを備えている。ISP112は、撮影部111からの出力データを画像処理する画像処理プロセッサである。システムコントローラ115は、ISP112がどのように画像処理を行うかを制御する。画像送信部113は、ISP112から出力されたデータを外部に送信する。 FIG. 3 is a diagram showing an example of the hardware configuration of the vehicle cruise control system 100 according to this embodiment. A vehicle travel control system 100 shown in FIG. 3 includes an imaging device 101, an optical system 102, a display section 103, a network communication section 104, and an ECU 105 as an electronic control unit. The imaging device 101 includes an imaging unit 111 , an ISP 112 , a system controller 115 , an image transmission unit 113 and an information acquisition unit 114 . The ISP 112 is an image processor that performs image processing on output data from the imaging unit 111 . System controller 115 controls how ISP 112 performs image processing. The image transmission unit 113 transmits the data output from the ISP 112 to the outside.

光学系102は、周知のレンズ群を有する。レンズ群において、例えばフォーカスレンズは光軸方向に移動してもよい。これにより、撮影部111において被写体像の合焦位置を調整できる。 The optical system 102 has well-known lens groups. In the lens group, for example, the focus lens may move in the optical axis direction. Thereby, the focus position of the subject image can be adjusted in the imaging unit 111 .

撮影部111は、例えばCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサである。図4は、撮影部111の構成例を示す図である。図4に示すように、撮影部111は、行列方向に配列された複数の画素201を含む画素アレイと、行走査回路202と、列走査回路203と、列毎に設けられた電流源204と、列毎に設けられたAD変換回路205と、を含む。 The imaging unit 111 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. FIG. 4 is a diagram showing a configuration example of the imaging unit 111. As shown in FIG. As shown in FIG. 4, the imaging unit 111 includes a pixel array including a plurality of pixels 201 arranged in rows and columns, a row scanning circuit 202, a column scanning circuit 203, and current sources 204 provided for each column. , and an AD conversion circuit 205 provided for each column.

各画素201は、対応する行の水平信号線207と、対応する行の垂直信号線208とに接続されている。行走査回路202及び列走査回路203により、各画素201が個々に選択される。なお、各画素201には、共通の電源線206により電源電圧が供給される。各画素201は、入力された光信号を電気信号に変換する。AD変換回路205は、画素201で得られた電気信号をデジタル信号に変換する。このデジタル信号は、列走査回路203から出力信号線209に出力される。なお、AD変換回路205が設けられず、電気信号がアナログ信号のまま出力されもよい。又は、複数の画素201の出力信号が加減算され、演算後の値が出力されてもよい。 Each pixel 201 is connected to a horizontal signal line 207 in a corresponding row and a vertical signal line 208 in a corresponding row. Each pixel 201 is individually selected by a row scanning circuit 202 and a column scanning circuit 203 . A power supply voltage is supplied to each pixel 201 through a common power supply line 206 . Each pixel 201 converts an input optical signal into an electrical signal. The AD conversion circuit 205 converts the electrical signal obtained by the pixel 201 into a digital signal. This digital signal is output from the column scanning circuit 203 to the output signal line 209 . Note that the AD conversion circuit 205 may not be provided, and the electric signal may be output as an analog signal. Alternatively, the output signals of a plurality of pixels 201 may be added and subtracted, and the calculated values may be output.

図5A及び図5Bは、画素201の一例である画素201A及び201Bの構成を示す図である。画素201Aは、図5Aに示すように、光電変換部210と、電荷蓄積部225と、リセットトランジスタM3と、増幅トランジスタM1と、選択トランジスタM2と、を有する。光電変換部210は、入射光を光電変換する。電荷蓄積部225は、電荷を蓄積する。リセットトランジスタM3は、電荷蓄積部225の電位を所望のリセット電位V1にリセットする。増幅トランジスタM1は、電荷蓄積部225に蓄積された電荷の量に応じた信号を出力する。選択トランジスタM2は、信号を垂直信号線208に選択的に出力する。 5A and 5B are diagrams showing configurations of pixels 201A and 201B, which are examples of the pixel 201. FIG. The pixel 201A has, as shown in FIG. 5A, a photoelectric conversion unit 210, a charge storage unit 225, a reset transistor M3, an amplification transistor M1, and a selection transistor M2. The photoelectric conversion unit 210 photoelectrically converts incident light. The charge storage unit 225 stores charges. The reset transistor M3 resets the potential of the charge storage unit 225 to the desired reset potential V1. The amplification transistor M1 outputs a signal corresponding to the amount of charge accumulated in the charge accumulation section 225 . The selection transistor M2 selectively outputs a signal to the vertical signal line 208. FIG.

なお、光電変換部として、図5Bに示すようにフォトダイオード211が用いられてもよい。 Note that a photodiode 211 may be used as the photoelectric conversion unit as shown in FIG. 5B.

図6は、図5Aに示した画素201Aの構成例を示す断面図である。図6に示すように、光電変換部210は、透明電極221と、画素電極223と、光電変換層222と、を有する。光電変換層222は、透明電極221及び画素電極223の間に位置する。電荷蓄積部225は、少なくとも一部が半導体基板226内に位置していてもよい。電荷蓄積部225は、コンタクトプラグ224を介して画素電極223に電気的に接続されてもよい。透明電極221と画素電極223との間にバイアス電圧が印加されると電界が生じる。この電界により、光電変換層222で光電変換によって生じた正及び負の電荷のうちの一方が、画素電極223によって収集される。収集された電荷は電荷蓄積部225に蓄積される。 FIG. 6 is a cross-sectional view showing a configuration example of the pixel 201A shown in FIG. 5A. As shown in FIG. 6 , the photoelectric conversion section 210 has a transparent electrode 221 , a pixel electrode 223 and a photoelectric conversion layer 222 . A photoelectric conversion layer 222 is located between the transparent electrode 221 and the pixel electrode 223 . At least a portion of the charge storage section 225 may be located within the semiconductor substrate 226 . The charge storage section 225 may be electrically connected to the pixel electrode 223 through the contact plug 224 . An electric field is generated when a bias voltage is applied between the transparent electrode 221 and the pixel electrode 223 . Due to this electric field, one of positive and negative charges generated by photoelectric conversion in the photoelectric conversion layer 222 is collected by the pixel electrode 223 . The collected charges are stored in the charge storage section 225 .

画素201は可視光及び非可視光に対して感度を有する。図7A~図7Dは、画素201の配置の一例を示す。また、非可視光の一例として、赤外光を対象とする場合で例示する。図7A~図7Dにおいて、四角形のそれぞれが単一の画素を示す。画素に記載されたGは緑色の波長帯域、Rは赤色の波長帯域、Bは青色の波長帯域、IRは赤外光の波長帯域、Wは可視光から赤外光の波長帯域に、それぞれの画素が感度を有することを示す。以下、緑色の波長帯域に感度を有する画素をG画素、赤色の波長帯域に感度を有する画素をR画素、青色の波長帯域に感度を有する画素をB画素、赤外光の波長帯域に感度を有する画素をIR画素、可視光から赤外光の波長帯域に感度を有する画素をW画素と呼ぶ。画素アレイは4画素を1単位として縦横に同構成を配置している。 Pixels 201 are sensitive to visible and invisible light. 7A to 7D show an example arrangement of the pixels 201. FIG. Also, as an example of invisible light, a case of targeting infrared light will be described. In FIGS. 7A-7D, each square represents a single pixel. G written in the pixel is a green wavelength band, R is a red wavelength band, B is a blue wavelength band, IR is an infrared wavelength band, and W is a wavelength band from visible light to infrared light. Indicates that the pixel has sensitivity. Hereinafter, G pixels are pixels that are sensitive to the green wavelength band, R pixels are pixels that are sensitive to the red wavelength band, B pixels are pixels that are sensitive to the blue wavelength band, and sensitivity is to the infrared wavelength band. A pixel having a sensitivity to a wavelength band from visible light to infrared light is called a W pixel. The pixel array has four pixels as one unit, and the same configuration is arranged vertically and horizontally.

図7Aは、ベイヤー配列において、G画素の一つをIR画素に置き換えた構成例を示す。IR画素は、典型的には可視光カットフィルタを画素上に形成することで実現される。ベイヤー配列とは、一つのR画素と、二つのG画素と、一つのB画素との4画素を1単位として、縦横に同構成を配置した配列である。また、二つのG画素は斜め方向に配置され、互いに上下又は左右に隣接しない。 FIG. 7A shows a configuration example in which one of the G pixels is replaced with an IR pixel in the Bayer array. An IR pixel is typically realized by forming a visible light cut filter on the pixel. The Bayer array is an array in which four pixels, one R pixel, two G pixels, and one B pixel, are set as one unit and the same configuration is arranged vertically and horizontally. Also, two G pixels are arranged diagonally and are not adjacent to each other vertically or horizontally.

図7Bは、ベイヤー配列において、G画素の一つをW画素に置き換えた構成例を示す。W画素は、典型的にはオンチップカラーフィルタを画素上に形成しないことで実現される。 FIG. 7B shows a configuration example in which one of the G pixels is replaced with a W pixel in the Bayer array. A W pixel is typically realized by not forming an on-chip color filter on the pixel.

図7Cは、ベイヤー配列において、全ての画素が赤外光の波長帯域に感度を有する構成例を示す。典型的には、各画素上のオンチップカラーフィルタを、可視光(赤色光、緑色光又は青色光)の波長帯域の光と、赤外光の波長帯域の光とが透過するように構成する。さらに、赤外光カットフィルタを搭載し、撮影部111の前面において、赤外光カットフィルタを撮影部111への光路上に配置した状態と配置しない状態とを切り替える。このように制御することにより、各画素について、可視光(赤色光、緑色光又は青色光)による信号取得と、可視光(赤色光、緑色光又は青色光)及び赤外光による信号取得とを切り替えることができる。 FIG. 7C shows a configuration example in which all pixels are sensitive to the wavelength band of infrared light in the Bayer array. Typically, the on-chip color filter on each pixel is configured to transmit light in the wavelength band of visible light (red light, green light, or blue light) and light in the wavelength band of infrared light. . Further, an infrared light cut filter is mounted, and the state in which the infrared light cut filter is arranged on the optical path to the photographing unit 111 and the state in which it is not arranged are switched on the front surface of the photographing unit 111 . By controlling in this way, for each pixel, signal acquisition by visible light (red light, green light or blue light) and signal acquisition by visible light (red light, green light or blue light) and infrared light are performed. You can switch.

図7Dは、ベイヤー配列における各画素において、赤外光の波長帯域に感度を有する状態と赤外光の波長帯域に感度を有さない状態とを切り替える構成例を示す。典型的には、画素に印加される電圧を制御することにより状態の切り替えが行われる。 FIG. 7D shows a configuration example in which each pixel in the Bayer array switches between a state of sensitivity to the wavelength band of infrared light and a state of not having sensitivity to the wavelength band of infrared light. Typically, state switching is accomplished by controlling the voltage applied to the pixel.

例えば、図6に示す画素において、透明電極221と画素電極223との間の電位差を切り替えることで、各画素によって取得される光の波長帯域を変更できる。例えば、光電変換層222を吸収スペクトルの異なる2種類の材料で構成してもよい。また、透明電極221と画素電極223との間の電位差が、所定の値よりも大きい場合には画素201が赤外光に感度を有し、所定の値よりも小さい場合には画素201が赤外光に感度を有さないように構成してもよい。あるいはフォトダイオードを備える画素において、例えば、フォトダイオードの下方に位置するキャリア排出領域へのバイアス電圧を変化させて電荷の捕獲領域を変化させてもよい。これにより、各画素によって取得される光の波長帯域を変更することができる。また、例えば、キャリア排出領域に高いバイアス電圧を印加することにより、画素201が可視光にのみ感度を有するようにし、キャリア排出領域に低いバイアス電圧を印加することにより、赤外光にも感度を有するようにすることができる。 For example, in the pixel shown in FIG. 6, by switching the potential difference between the transparent electrode 221 and the pixel electrode 223, the wavelength band of light obtained by each pixel can be changed. For example, the photoelectric conversion layer 222 may be composed of two materials with different absorption spectra. When the potential difference between the transparent electrode 221 and the pixel electrode 223 is larger than a predetermined value, the pixel 201 is sensitive to infrared light, and when it is smaller than the predetermined value, the pixel 201 is sensitive to red light. It may be configured so as not to have sensitivity to external light. Alternatively, in a pixel with a photodiode, for example, the charge trapping region may be varied by changing the bias voltage to the carrier ejection region located below the photodiode. Thereby, the wavelength band of light acquired by each pixel can be changed. Further, for example, by applying a high bias voltage to the carrier discharge region, the pixel 201 is made sensitive only to visible light, and by applying a low bias voltage to the carrier discharge region, sensitivity is also made to infrared light. can be made to have

具体的には、光電変換部が図6に示す構成を有する場合、透明電極221及び画素電極223の間の電位差を変化させることで、画素201の単位時間当たりの感度を変更することが可能である。例えば透明電極221及び画素電極223の間の電位差を小さくすることにより、光電変換層222において光電変換によって生じた電荷を検出させないようにすることもできる。つまり、画素201の感度を実質的にゼロにすることもできる。例えば全画素において透明電極221を共通とし、全画素の感度を同時にゼロにすることにより、グローバルシャッタ動作が可能になる。なお、光電変換部がフォトダイオード211の場合には、電荷転送トランジスタ及び電荷蓄積容量を設ける構成にすることで、グローバルシャッタ動作が可能になる。撮影部111がグローバルシャッタ機能を備えることにより、車両が高速に移動している際も、撮影部111はコードを歪まずに撮像することができる。これにより、撮像装置101のコードの認識精度を向上させることができる。コードについての詳細は後述する。 Specifically, when the photoelectric conversion portion has the configuration shown in FIG. 6, the sensitivity per unit time of the pixel 201 can be changed by changing the potential difference between the transparent electrode 221 and the pixel electrode 223. be. For example, by reducing the potential difference between the transparent electrode 221 and the pixel electrode 223, the charge generated by photoelectric conversion in the photoelectric conversion layer 222 can be prevented from being detected. In other words, the sensitivity of the pixel 201 can be made substantially zero. For example, by making the transparent electrode 221 common to all pixels and simultaneously setting the sensitivity of all pixels to zero, a global shutter operation is possible. Note that when the photoelectric conversion unit is the photodiode 211, a global shutter operation can be performed by providing a charge transfer transistor and a charge storage capacitor. Since the photographing unit 111 has a global shutter function, the photographing unit 111 can photograph the code without distortion even when the vehicle is moving at high speed. As a result, the code recognition accuracy of the imaging device 101 can be improved. Details about the code will be described later.

再度、図3を参照する。ISP112は、撮影部111から出力されるデータに対して、必要に応じて画像処理を行う。撮影部111から出力されるデータは、例えばRAWデータである。画像処理は、例えば圧縮処理あるいは補正処理である。なお、撮影部111とISP112とは同一の1チップに設けられていてもよい。それにより、処理の高速化及び装置の低コスト化を実現できる。ISP112は、撮影部111から出力されたデータをそのまま、あるいは画像処理を行って、画像送信部113及び情報取得部114に出力する。ISP112から出力されるデータは、例えば画像処理が施されていないRAWデータであってもよいし、RAWデータに画像処理が行われた、所定のフォーマットのデータであってもよい。 Please refer to FIG. 3 again. The ISP 112 performs image processing on the data output from the imaging unit 111 as necessary. The data output from the imaging unit 111 is, for example, RAW data. Image processing is, for example, compression processing or correction processing. Note that the imaging unit 111 and the ISP 112 may be provided on the same chip. As a result, it is possible to realize high speed processing and low cost of the device. The ISP 112 outputs the data output from the imaging unit 111 as it is or after image processing to the image transmission unit 113 and the information acquisition unit 114 . The data output from the ISP 112 may be, for example, RAW data that has not been subjected to image processing, or data in a predetermined format in which RAW data has been subjected to image processing.

画像送信部113は、ISP112から出力されたデータを、例えば、ECU105等の外部装置に出力する。情報取得部114は、撮像画像からコード50を抽出する。コード50は、情報を一定の規則に従ってコードに変換したものである。また、情報取得部114は、抽出したコード50を復号することで、コード50を交通情報等の情報に変換する。図8A~図8Dは、コード50の例を示す図である。例えば、図8A~図8Cに示すように、コード50は二次元のパターンである。具体的には、コード50として、図8Aに示すようなQRコード(登録商標)、図8Bに示すような任意のパターン、又は、図8Cに示すような文字或いは記号を用いることができる。もしくは、コード50として、図8Dに示すような、一次元のパターンであるバーコードが用いられてもよい。 The image transmission unit 113 outputs the data output from the ISP 112 to an external device such as the ECU 105, for example. The information acquisition unit 114 extracts the code 50 from the captured image. The code 50 is obtained by converting information into code according to certain rules. The information acquisition unit 114 also decodes the extracted code 50 to convert the code 50 into information such as traffic information. 8A-8D are diagrams illustrating examples of code 50. FIG. For example, as shown in Figures 8A-8C, code 50 is a two-dimensional pattern. Specifically, as the code 50, a QR code (registered trademark) as shown in FIG. 8A, an arbitrary pattern as shown in FIG. 8B, or characters or symbols as shown in FIG. 8C can be used. Alternatively, as the code 50, a bar code that is a one-dimensional pattern as shown in FIG. 8D may be used.

また、情報取得部114は、復号化処理として、例えば、QRコード(登録商標)に対するJIS X 0510:2004記載の復号化処理、又はパターンマッチングによる対応情報の取得を行う。また、コード50が情報そのものである場合は、情報取得部114は、復号化処理として文字認識等を行う。なお、情報取得部114はISP112で実現されてもよい。 In addition, the information acquisition unit 114 performs, for example, decoding processing described in JIS X 0510:2004 for QR Codes (registered trademark) or acquisition of corresponding information by pattern matching as the decoding processing. Further, when the code 50 is information itself, the information acquisition unit 114 performs character recognition or the like as decoding processing. Note that the information acquisition unit 114 may be implemented by the ISP 112 .

抽出された情報は、例えば、後述するECU105に送られ、車両の速度及び制動の制御に利用されてもよい。又は、抽出された情報は、表示部103に送られ、交通情報の運転者への提示、又は表示或いは音による危険の警告等に利用されてもよい。 The extracted information may, for example, be sent to the ECU 105, which will be described later, and used to control the speed and braking of the vehicle. Alternatively, the extracted information may be sent to the display unit 103 and used for presenting traffic information to the driver, warning of danger by display or sound, or the like.

システムコントローラ115は、入力部122と、出力部121と、プログラムメモリ123と、ワーキングメモリ125と、制御用マイコン126と、を備えている。プログラムメモリ123には、プログラム124が格納されている。マイコン126は、プログラム124を、ワーキングメモリ125を使いつつ実行することで、例えば、撮像装置101の制御部として機能する。なお、システムコントローラ115は、ISP112を制御するだけでなく撮影部111を制御してもよい。出力部121は、システムコントローラ115での制御結果を撮影部111に出力する。 The system controller 115 includes an input section 122 , an output section 121 , a program memory 123 , a working memory 125 and a control microcomputer 126 . A program 124 is stored in the program memory 123 . The microcomputer 126 executes the program 124 using the working memory 125, thereby functioning as, for example, a control unit of the imaging apparatus 101. FIG. Note that the system controller 115 may control the imaging unit 111 in addition to controlling the ISP 112 . The output unit 121 outputs the control result of the system controller 115 to the imaging unit 111 .

表示部103はカメラ画像を表示する。ネットワーク通信部104はワイヤレスにインターネットに接続する手段である。例えば、ネットワーク通信部104は、情報取得部114での情報取得処理で必要な情報を、ネットワーク通信部104を介してインターネット上から取得する。ECU105は、エンジン、制動、又は加速など、様々な車体の制御をつかさどるユニットである。 A display unit 103 displays a camera image. The network communication unit 104 is means for wirelessly connecting to the Internet. For example, the network communication unit 104 acquires information necessary for information acquisition processing in the information acquisition unit 114 from the Internet via the network communication unit 104 . The ECU 105 is a unit that controls various vehicle bodies such as the engine, braking, and acceleration.

なお、これらの構成要素はそれぞれ独立に構成される必要はなく、統合されていてもよい。 Note that these components do not need to be configured independently, and may be integrated.

図9は、本実施形態に係る車両走行制御システム100の機能構成を示すブロック図である。車両走行制御システム100は、例えば、車両に搭載される。図9に示すように、車両走行制御システム100は、撮像装置101と、車両制御部131とを備える。 FIG. 9 is a block diagram showing the functional configuration of the vehicle cruise control system 100 according to this embodiment. The vehicle travel control system 100 is mounted on a vehicle, for example. As shown in FIG. 9 , the vehicle travel control system 100 includes an imaging device 101 and a vehicle control section 131 .

撮像装置101は、撮影部111と、画像処理装置140とを備える。画像処理装置140は、例えば、図3に示すISP112及び情報取得部114により実現される。この画像処理装置140は、画像処理部142を備える。 The imaging device 101 includes an imaging unit 111 and an image processing device 140 . The image processing device 140 is implemented by, for example, the ISP 112 and the information acquisition unit 114 shown in FIG. The image processing device 140 includes an image processing section 142 .

なお、画像処理装置140は、撮像装置101の外部に存在してもよい。例えば、撮像装置101は、撮影した画像を、外部にある画像処理装置140に送信してもよい。画像処理装置140は、受信した画像に対して処理を行ってもよい。 Note that the image processing device 140 may exist outside the imaging device 101 . For example, the imaging device 101 may transmit the captured image to the external image processing device 140 . Image processor 140 may perform processing on the received image.

撮影部111は、可視光が撮影された画像であって、対象物の像を含む第1画像161と、非可視光が撮影された画像であって、対象物の像を含む第2画像162とを撮影する。なお、第2画像162は、可視光及び非可視光が撮影された画像であってもよい。また、非可視光とは、例えば、赤外光である。また、撮影部111で撮影された第1画像161及び第2画像162は、フレームメモリにそれぞれ格納される。フレームメモリは撮影部111又はISP112に内蔵されていてもよいし、ディスクリートのメモリ素子でもよい。 The image capturing unit 111 captures a first image 161 containing an image of an object, which is an image captured with visible light, and a second image 162, which is an image captured with non-visible light and includes an image of the object. and Note that the second image 162 may be an image in which visible light and non-visible light are captured. Moreover, invisible light is, for example, infrared light. Also, the first image 161 and the second image 162 captured by the capturing unit 111 are stored in the frame memory. The frame memory may be built in the imaging unit 111 or ISP 112, or may be a discrete memory device.

対象物とは、例えば、コード50を表示する表示媒体である。コード50は、例えば、情報に対応付けられている。対象物は、例えば、標識、看板、電光掲示板、又は建造物であってもよい。コード50は、非可視光で表示される。これにより、対象物は、可視光により観察される外観の視認性又はデザイン性を損なうことなく、情報を表示することができる。具体的には、対象物は、非可視光を発光することでコード50を表示してもよい。例えば、対象物は、非可視光を発光する光源であってもよい。あるいは、対象物は、非可視光を反射することでコード50を表示してもよい。例えば、対象物のコード50を表示している部分において、非可視光に対する反射率を可視光に対する反射率よりも高くしてもよい。本明細書においてコード50とは、例えば非可視光をより多く発光又は反射する部分とその他の部分とからなるパターンであり、特定の情報に対応付けられたものをいう。 The object is, for example, a display medium that displays the code 50 . Code 50 is associated with information, for example. The object may be, for example, a sign, billboard, electronic billboard, or building. Code 50 is displayed in non-visible light. As a result, the object can display information without impairing the visibility or design of the appearance observed with visible light. Specifically, the object may display the code 50 by emitting invisible light. For example, the object may be a light source that emits invisible light. Alternatively, the object may display code 50 by reflecting non-visible light. For example, in the portion where the code 50 of the object is displayed, the reflectance for invisible light may be higher than the reflectance for visible light. In this specification, the code 50 is, for example, a pattern composed of a portion that emits or reflects more invisible light and other portions, and is associated with specific information.

図1において、表示媒体51は道路標識であり、表示媒体52は看板であり、表示媒体53は車両である。図1は、表示媒体51、表示媒体52、表示媒体53を、非可視光成分を撮像できるカメラで撮像した場合の画像の一例を示している。図1では、コード50以外の背景部分も写っている。これは、日中の屋外においては、太陽光に含まれる非可視光により、人、車両、及び建築物等の一般的な対象物も非可視光を発しているためである。つまり、例え赤外領域に感度を有する撮像装置で撮像したとしても、図1に示すように、コード50を高コントラストで抽出することが困難な場合がある。本実施形態では、後述する画像処理により、図2に示すようにコード50を高精度に抽出する。 In FIG. 1, a display medium 51 is a road sign, a display medium 52 is a signboard, and a display medium 53 is a vehicle. FIG. 1 shows an example of images of a display medium 51, a display medium 52, and a display medium 53 captured by a camera capable of capturing non-visible light components. In FIG. 1, the background portion other than the code 50 is also shown. This is because ordinary objects such as people, vehicles, and buildings also emit invisible light due to the invisible light contained in sunlight outdoors during the day. That is, even if the image is captured by an imaging device having sensitivity in the infrared region, it may be difficult to extract the code 50 with high contrast as shown in FIG. In this embodiment, the code 50 is extracted with high accuracy as shown in FIG. 2 by image processing to be described later.

例えば、撮影部111は、可視光に感度を有する複数の第1画素と、非可視光に感度を有する複数の第2画素とを含んでもよい。第1画像161は、複数の第1画素により得られる。第2画像162は、複数の第2画素により得られる。第1画素とは、例えば、図7A又は図7Bに示す、R画素、G画素及びB画素である。第2画素とは、例えば、図7Aに示すIR画素、又は、図7Bに示すW画素である。 For example, the imaging unit 111 may include a plurality of first pixels sensitive to visible light and a plurality of second pixels sensitive to invisible light. A first image 161 is obtained by a plurality of first pixels. A second image 162 is obtained by a plurality of second pixels. The first pixels are, for example, the R, G and B pixels shown in FIG. 7A or 7B. The second pixel is, for example, the IR pixel shown in FIG. 7A or the W pixel shown in FIG. 7B.

あるいは、撮影部111は、複数の画素201を備え、各画素201が可視光に対する感度を有する第1撮影状態と、複数の画素201が非可視光に対する感度を有する第2撮影状態とを有してもよい。これにより、第1撮影状態において第1画像161が得られる。第2撮影状態において第2画像162が得られる。つまり、同一の画素201により第1画像161と第2画像162とが得られる。例えば、図7C又は図7Dに示す構成のように、同一の画素201について、可視光の波長帯域に感度を有する状態と、非可視光の波長帯域に感度を有する状態とを切り替えてもよい。これにより、同一の画素201により第1画像161と第2画像162とを得ることができる。 Alternatively, the imaging unit 111 includes a plurality of pixels 201 and has a first imaging state in which each pixel 201 is sensitive to visible light and a second imaging state in which the plurality of pixels 201 is sensitive to invisible light. may Thereby, the first image 161 is obtained in the first photographing state. A second image 162 is obtained in the second photographing state. That is, the first image 161 and the second image 162 are obtained from the same pixels 201 . For example, as in the configuration shown in FIG. 7C or 7D, the same pixel 201 may be switched between a state of sensitivity to the wavelength band of visible light and a state of sensitivity to the wavelength band of non-visible light. Thereby, the first image 161 and the second image 162 can be obtained from the same pixels 201 .

画像処理部142は、撮影部111から第1画像161及び第2画像162を取得する。画像処理部142は、差分処理部151と、抽出部152とを備える。 The image processing unit 142 acquires the first image 161 and the second image 162 from the imaging unit 111 . The image processing unit 142 includes a difference processing unit 151 and an extraction unit 152 .

差分処理部151は、第1画像161と第2画像162との差分処理によって対象物の像を含む第3画像163を生成する。この差分処理により、コード50の発光部分の像の信号強度と、コード50以外の像の信号強度との比が、第2画像162よりも大きい第3画像163が生成される。これにより、第3画像163からコード50の像を抽出しやすくしている。つまり、第2画像162において、コード50の像の信号強度のうち最も大きいものを第1強度とし、コード50以外の像の信号強度のうち最も大きいものを第2強度とする。また、第3画像163において、コード50の像の信号強度のうち最も大きいものを第3強度とし、コード50以外の像の信号強度のうち最も大きいものを第4強度とする。この場合、第4強度に対する第3強度の比は、第2強度に対する第1強度の比よりも大きい。 The difference processing unit 151 generates a third image 163 including the image of the object by difference processing between the first image 161 and the second image 162 . This difference processing generates a third image 163 in which the ratio of the signal intensity of the image of the light emitting portion of the code 50 and the signal intensity of the image other than the code 50 is greater than that of the second image 162 . This facilitates extraction of the image of the code 50 from the third image 163 . That is, in the second image 162, the highest signal intensity of the image of the code 50 is set as the first intensity, and the highest signal intensity of the images other than the code 50 is set as the second intensity. In the third image 163, the highest signal intensity of the image of the code 50 is the third intensity, and the highest signal intensity of the images other than the code 50 is the fourth intensity. In this case, the ratio of the third intensity to the fourth intensity is greater than the ratio of the first intensity to the second intensity.

抽出部152は、第3画像163からコード50を抽出する。また、抽出部152は、抽出したコード50に対応付けられている情報144を取得する。情報144は、例えば交通情報である。交通情報とは、例えば道路標識の内容を示す情報である。具体的には、例えば、接近禁止又は進入禁止を示す情報である。 Extraction unit 152 extracts code 50 from third image 163 . The extraction unit 152 also acquires the information 144 associated with the extracted code 50 . Information 144 is, for example, traffic information. Traffic information is, for example, information indicating the content of road signs. Specifically, for example, it is information indicating prohibition of approach or prohibition of entry.

車両制御部131は、情報144に基づいて、車両の制動及び加速を制御する。例えば、車両制御部131は、図2に示すECU105により実現される。 Vehicle control unit 131 controls braking and acceleration of the vehicle based on information 144 . For example, the vehicle control unit 131 is implemented by the ECU 105 shown in FIG.

なお、本開示は、車両走行制御システム100として実現できるだけでなく、撮像装置101又は画像処理装置140として実現されてもよい。 Note that the present disclosure can be implemented not only as the vehicle travel control system 100 but also as the imaging device 101 or the image processing device 140 .

(第2の実施形態)
本実施形態においては、情報144は、ユーザに通知される。ユーザは、例えば車両の運転手である。図10は、本実施形態に係る撮像システム100Aのブロック図である。撮像システム100Aは、車両制御部131の代わりに通知部132を備える点で、第1の実施形態の車両走行制御システム100と異なる。
(Second embodiment)
In this embodiment, information 144 is communicated to the user. A user is, for example, a driver of a vehicle. FIG. 10 is a block diagram of an imaging system 100A according to this embodiment. The imaging system 100A differs from the vehicle travel control system 100 of the first embodiment in that a notification section 132 is provided instead of the vehicle control section 131 .

通知部132は、情報144をユーザに通知する。例えば、通知部132は情報144を表示する。又は、通知部132は、音声等により情報144をユーザに通知してもよい。例えば、通知部132は、図3に示す表示部103により実現される。なお、情報144そのものがユーザに通知されてもよいし、情報144に基づく警告等がユーザに通知されてもよい。なお、車両走行制御システム100がさらに通知部132を備えてもよい。 The notification unit 132 notifies the user of the information 144 . For example, notification unit 132 displays information 144 . Alternatively, the notification unit 132 may notify the user of the information 144 by voice or the like. For example, the notification unit 132 is implemented by the display unit 103 shown in FIG. The information 144 itself may be notified to the user, or a warning or the like based on the information 144 may be notified to the user. Note that the vehicle travel control system 100 may further include a notification unit 132 .

以下、上記のように構成された車両走行制御システム100の動作を説明する。 The operation of the vehicle travel control system 100 configured as described above will be described below.

以下、図11に示すフローチャートに基づいて、撮影部111による情報取得処理について説明する。本実施形態においては、撮影部111は、図7A又は図7Bに示す画素構成を備えている。すなわち、撮影部111は第1画像161と第2画像162とを同時に取得可能である。 Information acquisition processing by the imaging unit 111 will be described below based on the flowchart shown in FIG. 11 . In this embodiment, the imaging unit 111 has the pixel configuration shown in FIG. 7A or 7B. That is, the imaging unit 111 can acquire the first image 161 and the second image 162 at the same time.

撮影部111は撮像を開始する。撮像は、車両の乗員による手動制御によって開始されてもよい。あるいは、撮像は、車両のエンジンスタート等の起点となる動作に対応して自動的に開始されてもよい。 The imaging unit 111 starts imaging. Imaging may be initiated under manual control by the vehicle occupant. Alternatively, the imaging may be automatically started in response to a starting action such as starting the engine of the vehicle.

次に、撮影部111は、第1画像161及び第2画像162を撮影する(S101)。 Next, the photographing unit 111 photographs the first image 161 and the second image 162 (S101).

次に、画像処理部142は、撮影部111で撮影された第1画像161及び第2画像162を取得する。差分処理部151は第1画像161と第2画像162との差分処理により第3画像163を生成する(S102)。例えば、差分処理部151は、R画素、G画素及びB画素の出力値の合計と、IR画素又はW画素の出力値との差分を演算する。なお、差分処理部151は、R画素、G画素及びB画素のうち予め定められたいずれか1つの出力値と、IR画素又はW画素の出力値との差分を演算してもよい。また、差分処理部151は、第1画像161及び第2画像162の対応する画素同士について差分処理を行う。 Next, the image processing section 142 acquires the first image 161 and the second image 162 captured by the imaging section 111 . The difference processing unit 151 generates a third image 163 by difference processing between the first image 161 and the second image 162 (S102). For example, the difference processing unit 151 calculates the difference between the sum of the output values of R, G and B pixels and the output value of IR or W pixels. Note that the difference processing unit 151 may calculate the difference between the output value of any one of the R, G, and B pixels predetermined and the output value of the IR pixel or W pixel. Further, the difference processing unit 151 performs difference processing between corresponding pixels of the first image 161 and the second image 162 .

次に、抽出部152は、得られた第3画像163に対して予め定められた閾値で二値化処理を行うことで二値画像を生成する(S103)。閾値は撮影部111の特性又は実験結果をもとに予め設定される。 Next, the extraction unit 152 generates a binary image by performing binarization processing on the obtained third image 163 using a predetermined threshold value (S103). The threshold is set in advance based on the characteristics of the imaging unit 111 or experimental results.

次に、抽出部152は、パターンマッチング等既知の手法を用いて、二値画像からコード50を抽出する(S104)。具体的には、抽出部152は、画像内の全てのコード50を抽出し、抽出したコード50と、そのコード50の種類とをメモリに格納する。ここでコード50の種類とは、バーコード又はQRコード(登録商標)等である。 Next, the extraction unit 152 extracts the code 50 from the binary image using a known method such as pattern matching (S104). Specifically, the extraction unit 152 extracts all the codes 50 in the image, and stores the extracted codes 50 and the types of the codes 50 in memory. Here, the type of code 50 is a bar code, a QR code (registered trademark), or the like.

最後に、抽出部152は、抽出されたコード50に対応する情報144を取得する(S105)。例えば、抽出部152は、コード50に対応する情報144を示すテーブルを保持している。抽出部152は、このテーブルを用いて、コード50に対応する情報144を取得する。なお、抽出部152は、ネットワーク上のデータと照合することで、コード50に対応する情報144を取得してもよい。又は、情報144の取得処理自体がクラウド上で行われてもよい。 Finally, the extraction unit 152 acquires the information 144 corresponding to the extracted code 50 (S105). For example, the extractor 152 holds a table showing information 144 corresponding to code 50 . The extraction unit 152 obtains the information 144 corresponding to the code 50 using this table. Note that the extraction unit 152 may acquire the information 144 corresponding to the code 50 by collating with data on the network. Alternatively, the acquisition process itself of the information 144 may be performed on the cloud.

なお、コード50の抽出(S104)では、複数のコード50が抽出される可能性がある。複数のコード50が抽出された場合には、抽出部152は、複数のコード50のそれぞれについて情報144を取得する。この場合、抽出部152は、1つ目のコード50が抽出された時点で、そのコード50に対応する情報144の取得処理を行うことが可能である。よって、抽出部152は、ステップS104とS105とを並列に実行してもよい。 Note that there is a possibility that multiple codes 50 are extracted in the extraction of the code 50 (S104). When multiple codes 50 are extracted, the extraction unit 152 acquires information 144 for each of the multiple codes 50 . In this case, when the first code 50 is extracted, the extraction unit 152 can acquire the information 144 corresponding to the code 50 . Therefore, the extraction unit 152 may execute steps S104 and S105 in parallel.

図12は、撮影部111の構成が異なる場合の情報取得処理のフローチャートを示す。この場合、撮影部111は、図7C又は図7Dに示す構成を有する。すなわち、撮影部111は第1画像161と第2画像162とをこの順に取得する。図12に示すフローチャートでは、ステップS101がステップS101A及びS101Bに置き換えられている点で図9に示すフローチャートと異なる。 FIG. 12 shows a flowchart of information acquisition processing when the configuration of the imaging unit 111 is different. In this case, the imaging unit 111 has the configuration shown in FIG. 7C or 7D. That is, the imaging unit 111 acquires the first image 161 and the second image 162 in this order. The flowchart shown in FIG. 12 differs from the flowchart shown in FIG. 9 in that step S101 is replaced with steps S101A and S101B.

撮影部111は、第1画像161を撮像する(S101A)。その後、撮影状態を切り替え、第2画像162を撮像する(S101B)。例えば、図7Cに示す構成では、ステップS101Aでは赤外光カットフィルタを撮影部111への光路上に配置する。一方、ステップS101Bでは赤外光カットフィルタを撮影部111への光路上から除く。このことにより撮影状態の切り替えが行われる。また、図7Dに示す構成では、画素201への印加電圧を制御することで撮影状態の切り替えが行われる。具体的には、透明電極221と画素電極223の間の電位差を変更することにより、撮影状態を切り替えることができる。 The imaging unit 111 captures the first image 161 (S101A). After that, the imaging state is switched, and the second image 162 is captured (S101B). For example, in the configuration shown in FIG. 7C, an infrared light cut filter is placed on the optical path to the imaging unit 111 in step S101A. On the other hand, in step S101B, the infrared light cut filter is removed from the optical path to the imaging unit 111. FIG. As a result, the photographing state is switched. Further, in the configuration shown in FIG. 7D , the imaging state is switched by controlling the voltage applied to the pixel 201 . Specifically, by changing the potential difference between the transparent electrode 221 and the pixel electrode 223, the photographing state can be switched.

なお、以降の処理は図11と同一のため説明を省略する。なお、本例において、第1画像161及び第2画像162の撮像順は逆でもよい。 Since the subsequent processing is the same as in FIG. 11, the description is omitted. Note that in this example, the imaging order of the first image 161 and the second image 162 may be reversed.

本実施形態に示すような差分処理を行うことにより、第2画像162の出力値のうち太陽光に含まれる非可視光に起因するものを、第1画像161を用いて低減することができる。これにより、コード50をコード50以外の部分に比べて高コントラストにできるので、高速かつ高精度にコードを抽出できる。 By performing the difference processing as shown in this embodiment, the output values of the second image 162 that are caused by invisible light contained in sunlight can be reduced using the first image 161 . As a result, the code 50 can be made to have a higher contrast than the portions other than the code 50, so that the code can be extracted at high speed and with high accuracy.

図11又は図12に示す情報取得処理は、車両のエンジンがかかっている間は常に行われてもよい。あるいは、ある一定の間隔で行われてもよい。また、この情報取得処理は、外部情報を起点にして行われてもよい。例えば、車両がスクールゾーン等の特定の地域に入ったことを検知し、それを起点にして情報取得処理が開始されてもよい。また、この情報取得処理は、ギアが変更された等の車両内部の制御情報の変化を起点にして開始されてもよい。 The information acquisition process shown in FIG. 11 or 12 may be performed constantly while the engine of the vehicle is running. Alternatively, it may be performed at certain intervals. Also, this information acquisition processing may be performed starting from external information. For example, it may be detected that the vehicle has entered a specific area such as a school zone, and the information acquisition process may be started with that as a starting point. Also, this information acquisition processing may be started with a change in the control information inside the vehicle, such as when the gear is changed.

上記した説明では、第1画像161及び第2画像162の差分処理によって第3画像163を生成している。しかし状況によっては、単なる差分処理だけでは正確にコード50を検出し難い場合があり得る。例えば、第2画像162におけるコード50の発光部分の像の信号強度が、第1画像161におけるコード50の発光部分の像の信号強度よりも小さい場合である。このような場合には、第2画像162から第1画像161を減算すると、コード50の発光部分の像の差分の絶対値がコード50以外の像の差分の絶対値よりも小さくなる場合がある。すなわち、第3画像163においてコード50の像が反転してしまうことが起こり得る。 In the above description, the third image 163 is generated by difference processing between the first image 161 and the second image 162 . However, depending on the situation, it may be difficult to accurately detect the code 50 by simple difference processing alone. For example, the signal intensity of the image of the light emitting portion of the code 50 in the second image 162 is smaller than the signal intensity of the image of the light emitting portion of the code 50 in the first image 161 . In such a case, when the first image 161 is subtracted from the second image 162, the absolute value of the difference between the images of the light emitting portion of the code 50 may become smaller than the absolute value of the difference between the images other than the code 50. . That is, the image of the code 50 may be inverted in the third image 163 .

ここで、第2画像162におけるコード50の発光部分の像の信号強度は、コード50が非可視光を発光しないと仮定したときのコード50の発光部分の像の信号強度に、コード50の発光部分が発光する非可視光に起因する信号強度が加算されたものである。また、コード50が非可視光を発光しないと仮定したときのコード50の発光部分の像の信号強度は、コード50以外の像の信号強度と同等と考えられる。したがって、第2画像162におけるコード50以外の像の信号強度が、第1画像161におけるコード50以外の像の信号強度とほぼ同じかより大きくなるように補正すれば、第2画像162におけるコード50の発光部分の像の信号強度を、第1画像161におけるコード50の発光部分の像の信号強度よりも大きくできる。すなわち、第3画像163におけるコード50の像の反転を抑制できる。 Here, the signal intensity of the image of the light emitting portion of the code 50 in the second image 162 is the signal intensity of the image of the light emitting portion of the code 50 when it is assumed that the code 50 does not emit invisible light. The signal strength due to non-visible light emitted by the part is added. In addition, the signal intensity of the image of the light emitting portion of the code 50 assuming that the code 50 does not emit invisible light is considered to be equivalent to the signal intensity of the image other than the code 50 . Therefore, if the signal intensity of the images other than the code 50 in the second image 162 is corrected to be substantially the same as or greater than the signal intensity of the images other than the code 50 in the first image 161, the code 50 in the second image 162 can be made higher than the signal intensity of the image of the light emitting portion of the code 50 in the first image 161 . That is, the inversion of the image of the code 50 in the third image 163 can be suppressed.

このような補正として、例えば、第1画像161及び第2画像162においてコード50以外の任意の領域を設定し、その領域における第2画像162の信号強度の最小値が、同じ領域における第1画像161の信号強度の最小値よりも大きくなるように補正係数を算出してもよい。あるいは、第1画像161を取得する第1画素の分光感度特性と、第2画像162を取得する第2画素の分光感度特性とに基づいて、第2画像162におけるコード50以外の像の信号強度が、第1画像161におけるコード50以外の像の信号強度とほぼ等しくなるように補正係数を算出してもよい。また、補正係数の算出において太陽光のスペクトルを考慮してもよい。具体的な実施形態を次に説明する。 As such correction, for example, an arbitrary region other than the code 50 is set in the first image 161 and the second image 162, and the minimum value of the signal intensity of the second image 162 in that region is the same as that of the first image in the same region. The correction coefficient may be calculated so as to be greater than the minimum value of the 161 signal strength. Alternatively, based on the spectral sensitivity characteristics of the first pixels that acquire the first image 161 and the spectral sensitivity characteristics of the second pixels that acquire the second image 162, the signal intensity of the images other than the code 50 in the second image 162 However, the correction coefficient may be calculated so that the signal intensity of the image other than the code 50 in the first image 161 becomes substantially equal. Also, the spectrum of sunlight may be taken into account in calculating the correction coefficient. Specific embodiments are described below.

(第3の実施形態)
本実施形態では、画像処理装置140Aは、第1画像161及び第2画像162の対応する画素の出力値が同じ強度の光に対して同一となるように、第1画像161及び第2画像162の少なくとも一方を補正する。より詳細には、画像処理装置140Aは、第1画像161及び第2画像162の撮像に用いられた画素の量子効率及び分光感度特性の違いに基づいて補正を行う。これにより、第2画像162におけるコード50の発光部分の像の信号強度が、第1画像161におけるコード50の発光部分の像の信号強度よりも大きくなるように補正することができる。
(Third embodiment)
In this embodiment, the image processing device 140A processes the first image 161 and the second image 162 so that the output values of the corresponding pixels of the first image 161 and the second image 162 are the same for light of the same intensity. correct at least one of More specifically, the image processing device 140A performs correction based on differences in the quantum efficiency and spectral sensitivity characteristics of pixels used to capture the first image 161 and the second image 162 . As a result, the signal intensity of the image of the light emitting portion of the code 50 in the second image 162 can be corrected to be higher than the signal intensity of the image of the light emitting portion of the code 50 in the first image 161 .

図13は、本実施形態に係る画像処理装置140Aの構成を示すブロック図である。画像処理装置140Aは、画像処理部142Aが補正部153を備える点で画像処理装置140と異なる。 FIG. 13 is a block diagram showing the configuration of an image processing device 140A according to this embodiment. The image processing device 140A is different from the image processing device 140 in that the image processing section 142A includes a correction section 153 .

以下、画像処理装置140Aを用いた情報取得処理を図14に示すフローチャートを用いて説明する。なお、撮影部111は、図7A又は図7Bに示す画素構成を有する。すなわち、撮影部111は、第1画像161と第2画像162とを同時に取得する。図14に示す処理は、図11に示す処理に対して、ステップS106が追加されている点が異なる。 Information acquisition processing using the image processing device 140A will be described below with reference to the flowchart shown in FIG. Note that the imaging unit 111 has the pixel configuration shown in FIG. 7A or 7B. That is, the imaging unit 111 acquires the first image 161 and the second image 162 at the same time. The process shown in FIG. 14 differs from the process shown in FIG. 11 in that step S106 is added.

ステップS106では、補正部153は、コード50以外の領域において、第1画像161及び第2画像162の対応する画素の出力値の差が小さくなるように、第1画像161及び第2画像162に補正係数を乗算する。すなわち、補正部153は、第1画像161に第1補正係数を乗算することで補正後の第1画像161Aを生成する。また、補正部153は、第2画像162に第2補正係数を乗算することで補正後の第2画像162Aを生成する。なお、補正部153は、第1画像161及び第2画像162のいずれか一方のみに補正係数を乗算してもよい。 In step S106, the correction unit 153 corrects the first image 161 and the second image 162 so that the difference between the output values of the corresponding pixels in the first image 161 and the second image 162 is small in the area other than the code 50. Multiply the correction factor. That is, the correction unit 153 multiplies the first image 161 by the first correction coefficient to generate the corrected first image 161A. Further, the correction unit 153 multiplies the second image 162 by the second correction coefficient to generate the corrected second image 162A. Note that the correction unit 153 may multiply only one of the first image 161 and the second image 162 by the correction coefficient.

次に、差分処理部151は、補正後の第1画像161Aと補正後の第2画像162Aとの差分処理により第3画像163を生成する(S102)。なお、以降の処理は図11と同様であり、説明は省略する。 Next, the difference processing unit 151 generates the third image 163 by difference processing between the corrected first image 161A and the corrected second image 162A (S102). It should be noted that subsequent processing is the same as in FIG. 11, and a description thereof will be omitted.

第1補正係数及び第2補正係数、又は補正係数は、第1画像161の撮像に用いられた画素201の第1分光感度特性と、第2画像162の撮像に用いられた画素201の第2分光感度特性とに基づき算出される。 The first correction coefficient and the second correction coefficient, or the correction coefficient, are the first spectral sensitivity characteristics of the pixels 201 used to capture the first image 161 and the second spectral sensitivity characteristics of the pixels 201 used to capture the second image 162 . It is calculated based on the spectral sensitivity characteristics.

図15Aは、R画素、G画素及びB画素の分光感度特性の一例を示す図である。図15Bは、IR画素の分光感度特性の一例を示す図である。例えば、補正係数は、R画素、G画素及びB画素の分光感度特性のグラフの積分値の合計と、IR画素の分光感度特性のグラフの積分値とが同じになるように予め設定されている。本例においては、R画素のグラフの積分値が4.1であり、G画素のグラフの積分値が4.3であり、B画素のグラフの積分値が2.6であり、IR画素のグラフの積分値が5.4である。よって、例えば第1画像161のみに補正係数を乗算する場合には、補正係数として5.4/(4.1+4.3+2.6)=0.49を用いることで、R画素、G画素及びB画素の各出力値の合計とIR画素の出力値とが同等になるように補正できる。 FIG. 15A is a diagram showing an example of spectral sensitivity characteristics of R pixels, G pixels, and B pixels. FIG. 15B is a diagram showing an example of spectral sensitivity characteristics of IR pixels. For example, the correction coefficient is set in advance so that the sum of the integral values of the R, G, and B pixel spectral sensitivity characteristic graphs is the same as the integral value of the IR pixel spectral sensitivity characteristic graph. . In this example, the integral value of the R pixel graph is 4.1, the integral value of the G pixel graph is 4.3, the integral value of the B pixel graph is 2.6, and the IR pixel graph has an integral value of 4.3. The integrated value of the graph is 5.4. Therefore, for example, when only the first image 161 is multiplied by the correction coefficient, by using 5.4/(4.1+4.3+2.6)=0.49 as the correction coefficient, the R pixel, the G pixel, and the B pixel Correction can be made so that the sum of the pixel output values and the IR pixel output value are equivalent.

また、第2画像162のみに補正係数を乗算する場合には、補正係数は、本例の数値の逆数となる。すなわち、補正係数として1/0.49=2.04を用いる。また、第1画像161及び第2画像162の両方を補正する場合には、第1画像161に乗算される第1補正係数と、第2画像162に乗算される第2補正係数との比が、第2画像162の出力値と第1画像161の出力値との比と同じになるように設定される。 Also, when only the second image 162 is multiplied by the correction coefficient, the correction coefficient is the reciprocal of the numerical value in this example. That is, 1/0.49=2.04 is used as the correction coefficient. When correcting both the first image 161 and the second image 162, the ratio between the first correction coefficient multiplied by the first image 161 and the second correction coefficient multiplied by the second image 162 is , is set to be the same as the ratio between the output value of the second image 162 and the output value of the first image 161 .

なお、図7Bに示すように、IR画素の代わりにW画素が用いられる場合も同様である。なお、各画素の分光感度特性は予め設定されていてもよく、補正係数はシステム開発時に予め設定されていてもよい。 In addition, as shown in FIG. 7B, the same applies when W pixels are used instead of IR pixels. Note that the spectral sensitivity characteristic of each pixel may be set in advance, and the correction coefficient may be set in advance during system development.

図16は、撮影部111の構成が異なる場合の情報取得処理のフローチャートを示す。この場合、撮影部111は、図7C又は図7Dに示す画素構成を有する。すなわち、撮影部111は第1画像161と第2画像162とをこの順に取得する。図16に示すフローチャートは、ステップS101がステップS101A及びステップS101Bに置き換えられている点で、図14に示すフローチャートと異なる。 FIG. 16 shows a flowchart of information acquisition processing when the configuration of the imaging unit 111 is different. In this case, the imaging unit 111 has the pixel configuration shown in FIG. 7C or 7D. That is, the imaging unit 111 acquires the first image 161 and the second image 162 in this order. The flowchart shown in FIG. 16 differs from the flowchart shown in FIG. 14 in that step S101 is replaced with steps S101A and S101B.

図17A及び図17Bを用いて、G+IR画素の分光感度特性について説明する。G+IR画素は、緑色光の波長帯域及び赤外光の波長帯域に感度を有し得る。図17Aは、G+IR画素を緑色光の波長帯域に感度を有するように設定した場合の分光感度特性の一例を示す図である。以下、図17AをG状態のグラフと呼ぶ。図17Bは、G+IR画素を緑色光の波長帯域及び赤外光の波長帯域に感度を有するように設定した場合の分光感度特性の一例を示す図である。以下、図17BをG+IR状態のグラフと呼ぶ。例えば、補正係数は、G状態のグラフの積分値と、G+IR状態のグラフの積分値とが同じになるように予め設定されている。本例においては、G状態のグラフの積分値が4.3であり、G+IR状態のグラフの積分値が9.7である。よって、第1画像161のみに補正係数を乗算する場合には、補正係数として9.7/4.3=2.25を用いることで、第1画像161の取得時のG画素の出力値と、第2画像162の取得時のG+IR画素の出力値とが同等になるように補正できる。 The spectral sensitivity characteristics of the G+IR pixels will be described with reference to FIGS. 17A and 17B. G+IR pixels may be sensitive to the green light wavelength band and the infrared light wavelength band. FIG. 17A is a diagram showing an example of spectral sensitivity characteristics when G+IR pixels are set to have sensitivity in the wavelength band of green light. FIG. 17A is hereinafter referred to as the G-state graph. FIG. 17B is a diagram showing an example of spectral sensitivity characteristics when the G+IR pixel is set to have sensitivity in the wavelength band of green light and the wavelength band of infrared light. FIG. 17B is hereinafter referred to as the G+IR state graph. For example, the correction coefficient is set in advance so that the integral value of the G state graph and the integral value of the G+IR state graph are the same. In this example, the G state graph has an integral value of 4.3, and the G+IR state graph has an integral value of 9.7. Therefore, when only the first image 161 is multiplied by the correction coefficient, 9.7/4.3=2.25 is used as the correction coefficient so that the output value of the G pixel when the first image 161 is acquired and the , the output values of the G+IR pixels at the time of acquisition of the second image 162 can be corrected to be equivalent.

また、第2画像162のみに補正係数を乗算する場合には、補正係数は、本例の数値の逆数となる。すなわち、補正係数として1/2.25=0.44を用いる。また、第1画像161及び第2画像162の両方を補正する場合には、第1画像161に乗算される第1補正係数と、第2画像162に乗算される第2補正係数との比が第2画像162の出力値と第1画像161の出力値との比と同じになるように設定される。 Also, when only the second image 162 is multiplied by the correction coefficient, the correction coefficient is the reciprocal of the numerical value in this example. That is, 1/2.25=0.44 is used as the correction coefficient. When correcting both the first image 161 and the second image 162, the ratio between the first correction coefficient multiplied by the first image 161 and the second correction coefficient multiplied by the second image 162 is It is set to be the same as the ratio between the output value of the second image 162 and the output value of the first image 161 .

このように、第1画像161及び第2画像162の対応する画素の感度が同一となるように、補正部153が補正を行う。これにより、コード50の背景の出力値をさらに低減できる。従って、抽出部152は、コード50のみを精度よく抽出できる。 In this manner, the correction unit 153 performs correction so that the sensitivities of the corresponding pixels of the first image 161 and the second image 162 are the same. This further reduces the output value of the code 50 background. Therefore, the extraction unit 152 can extract only the code 50 with high accuracy.

(第4の実施形態)
本実施形態では、第3の実施形態の変形例について説明する。本実施形態では、さらに太陽光のスペクトルを補正係数の算出に用いる。より詳細には、第1画像161の撮像に用いられた画素の分光感度特性と第2画像162の撮像に用いられた画素の分光感度特性に対して、太陽光のスペクトルを掛け合わせたものを補正係数として使用する。これにより、第2画像162におけるコード50の発光部分の像の信号強度が、第1画像161におけるコード50の発光部分の像の信号強度よりも大きくなるように、より精度よく補正できる。
(Fourth embodiment)
In this embodiment, a modification of the third embodiment will be described. In this embodiment, the spectrum of sunlight is also used to calculate the correction coefficient. More specifically, the spectral sensitivity characteristics of the pixels used to capture the first image 161 and the spectral sensitivity characteristics of the pixels used to capture the second image 162 are multiplied by the spectrum of sunlight. Used as a correction factor. As a result, the signal intensity of the image of the light-emitting portion of the code 50 in the second image 162 can be corrected more accurately so that it becomes higher than the signal intensity of the image of the light-emitting portion of the code 50 in the first image 161 .

図18は、太陽光のスペクトルを示す図である。このように太陽光は500nm付近を最大値とし、長波長側に緩やかに強度が低下するスペクトルを持つ。そのため、この太陽光のスペクトルの影響を考慮した補正係数を導入することで、より精度よく太陽光の影響を除去することが可能となる。太陽光入射時の撮影部111の出力値は、太陽光のスペクトルと撮影部111の分光感度特性との各波長での掛け合わせで得られる。つまり、本実施形態では、補正係数、又は第1補正係数及び第2補正係数は、第1画像161が得られた際の画素201の第1分光感度特性に太陽光スペクトルを乗算することで得られた第1特性と、第2画像162が得られた際の画素201の第2分光感度特性に太陽光スペクトルを乗算することで得られた第2特性と、に基づき算出される。 FIG. 18 is a diagram showing the spectrum of sunlight. Thus, sunlight has a spectrum with a maximum value near 500 nm and a gentle decrease in intensity toward longer wavelengths. Therefore, by introducing a correction coefficient that considers the influence of the spectrum of sunlight, the influence of sunlight can be removed with higher accuracy. The output value of the imaging unit 111 when sunlight is incident is obtained by multiplying the spectrum of sunlight and the spectral sensitivity characteristic of the imaging unit 111 at each wavelength. That is, in the present embodiment, the correction coefficients, or the first correction coefficient and the second correction coefficient, are obtained by multiplying the first spectral sensitivity characteristics of the pixels 201 when the first image 161 was obtained by the sunlight spectrum. and the second characteristic obtained by multiplying the second spectral sensitivity characteristic of the pixel 201 when the second image 162 was obtained by the sunlight spectrum.

図19Aは、図18に示す太陽光のスペクトルと図15Aに示すR画素、G画素及びB画素の各分光感度特性との乗算結果を示すグラフである。図19Bは、図18に示す太陽光のスペクトルと図15Bに示すIR画素の分光感度特性との乗算結果を示すグラフである。第3の実施形態と同様に、例えば、図19Aに示すグラフの積分値の合計と、図19Bに示すグラフの積分値とが同じになるように補正係数が設定される。本例においては、図19Aに示す、R画素に対応するグラフの積分値が3.4であり、G画素に対応するグラフの積分値が3.9であり、B画素に対応するグラフの積分値が2.0である。また、図19Bに示すIR画素に対応するグラフの積分値が3.2である。よって、第1画像161のみを補正する場合には、補正係数として3.2/(3.4+3.9+2.0)=0.34を用いることで、R画素とG画素とB画素との出力の合計とIR画素の出力とを同等にできる。なお、図7BのようにIR画素の代わりにW画素が用いられる場合も同様である。 19A is a graph showing the multiplication result of the spectrum of sunlight shown in FIG. 18 and the spectral sensitivity characteristics of the R, G, and B pixels shown in FIG. 15A. 19B is a graph showing the result of multiplication of the spectrum of sunlight shown in FIG. 18 and the spectral sensitivity characteristics of the IR pixels shown in FIG. 15B. As in the third embodiment, for example, the correction coefficient is set so that the sum of the integral values of the graph shown in FIG. 19A is the same as the integral value of the graph shown in FIG. 19B. In this example, the integral value of the graph corresponding to the R pixel shown in FIG. 19A is 3.4, the integral value of the graph corresponding to the G pixel is 3.9, and the integral value of the graph corresponding to the B pixel The value is 2.0. Also, the integrated value of the graph corresponding to the IR pixel shown in FIG. 19B is 3.2. Therefore, when correcting only the first image 161, by using 3.2/(3.4+3.9+2.0)=0.34 as the correction coefficient, the output of the R pixel, the G pixel, and the B pixel is and the output of the IR pixel can be equated. The same applies when W pixels are used instead of IR pixels as shown in FIG. 7B.

また、第2画像162のみを補正する場合には、補正係数は、本例の数値の逆数となる。また、第1画像161及び第2画像162の両方を補正する場合には、第1画像161に乗算される第1補正係数と、第2画像162に乗算される第2補正係数との比が第2画像162の出力と第1画像161の出力との比と同じになるように設定される。 Also, when only the second image 162 is corrected, the correction coefficient is the reciprocal of the numerical value in this example. When correcting both the first image 161 and the second image 162, the ratio between the first correction coefficient multiplied by the first image 161 and the second correction coefficient multiplied by the second image 162 is It is set to be the same as the ratio between the output of the second image 162 and the output of the first image 161 .

このように、太陽光のスペクトルを考慮して、第1画像161及び第2画像162の対応する画素の出力値が同一となるように、補正部153が補正を行う。これにより、コード50の背景部分の出力値をさらに低減できる。従って、抽出部152は、コード50のみを精度よく抽出できる。 In this manner, the correction unit 153 performs correction so that the output values of the corresponding pixels of the first image 161 and the second image 162 are the same in consideration of the sunlight spectrum. This allows the output value of the background portion of the code 50 to be further reduced. Therefore, the extraction unit 152 can extract only the code 50 with high accuracy.

(第5の実施形態)
図20は、本実施形態に係る画像処理装置140Bの構成を示すブロック図である。図20に示す画像処理装置140Bは、昼夜判断部143を備える点で画像処理装置140と異なる。
(Fifth embodiment)
FIG. 20 is a block diagram showing the configuration of an image processing device 140B according to this embodiment. The image processing device 140B shown in FIG. 20 is different from the image processing device 140 in that it includes a day/night determination unit 143 .

図21は、本実施形態に係る情報取得処理のフローチャートである。図21に示す処理は、ステップS111~S113が追加されている点で図11に示す処理と異なる。 FIG. 21 is a flowchart of information acquisition processing according to this embodiment. The process shown in FIG. 21 differs from the process shown in FIG. 11 in that steps S111 to S113 are added.

まず、昼夜判断部143は、現在が昼間であるか夜間であるかを判定する(S111)。例えば、昼夜判断部143は、車両に設けられた照度センサの検知結果に基づき、現在が昼間であるか夜間であるかを判定する。又は、昼夜判断部143は、現在の時刻に基づき、現在が昼間であるか夜間であるかを判定してもよい。 First, the day/night determination unit 143 determines whether it is daytime or nighttime (S111). For example, the day/night determination unit 143 determines whether it is daytime or nighttime based on the detection result of an illuminance sensor provided in the vehicle. Alternatively, the day/night determination unit 143 may determine whether it is daytime or nighttime based on the current time.

現在が昼間である場合(S111でYes)、図11に示す処理と同様に、ステップS101以降の処理が行われる。つまり、差分処理部151により第3画像163が生成され、抽出部152は、第3画像163からコード50を抽出する。 If it is daytime (Yes in S111), the processes after step S101 are performed in the same manner as the process shown in FIG. That is, the third image 163 is generated by the difference processing section 151 and the extraction section 152 extracts the code 50 from the third image 163 .

一方、現在が夜間である場合(S111でNo)、画像処理装置140Bは、第3画像163の生成は行わず、第2画像162からコード50を抽出する。具体的には、撮影部111は第2画像162を撮影し、画像処理部142は、撮影された第2画像162を取得する(S112)。次に、抽出部152は、第2画像162に対して予め定められた閾値で二値化処理を行うことで二値画像を生成する(S113)。次に、抽出部152は、二値画像からコード50を抽出する(S104)。そして、抽出部152は、抽出されたコード50に対応する情報144を取得する(S105)。 On the other hand, if it is now nighttime (No in S111), the image processing device 140B extracts the code 50 from the second image 162 without generating the third image 163. FIG. Specifically, the image capturing unit 111 captures the second image 162, and the image processing unit 142 acquires the captured second image 162 (S112). Next, the extraction unit 152 generates a binary image by performing binarization processing on the second image 162 using a predetermined threshold value (S113). Next, the extraction unit 152 extracts the code 50 from the binary image (S104). Then, the extraction unit 152 acquires the information 144 corresponding to the extracted code 50 (S105).

夜間においては、非可視光成分の大きな発生源である太陽の影響が小さい。そのため、差分処理を行わなくとも、比較的高い精度でコードを抽出することができる。画像処理装置140Bは、夜間においては差分処理を行わないことにより、処理量を低減し、高速にコードを抽出することができる。 At night, the influence of the sun, which is a large source of invisible light components, is small. Therefore, the code can be extracted with relatively high accuracy without performing differential processing. The image processing device 140B can reduce the amount of processing and extract the code at high speed by not performing differential processing at night.

なお、ここでは、第1画像161と第2画像162とを同時に取得する場合の例を説明したが、第1画像161と第2画像162とを、順次に取得する場合も同様である。また、ここでは、第1の実施形態の構成をベースに説明を行ったが、第2の実施形態、第3の実施形態又は第4の実施形態の構成に対しても同様の変形例を適用できる。 Although the example in which the first image 161 and the second image 162 are obtained simultaneously has been described here, the same applies to the case in which the first image 161 and the second image 162 are obtained sequentially. Further, here, the description has been made based on the configuration of the first embodiment, but similar modifications are applied to the configurations of the second, third, and fourth embodiments. can.

また、上記第1~第5の実施形態において、撮像装置101はグローバルシャッタ機能を有してもよい。つまり、撮影部111は、複数の第1画素と複数の第2画素を用いて、1フレーム期間内の単一の露光期間において第1画像161及び第2画像162を撮影する。上記露光期間において、複数の第1画素と複数の第2画素との露光の開始及び終了のタイミングは同一である。 Further, in the first to fifth embodiments, the imaging device 101 may have a global shutter function. That is, the imaging unit 111 captures the first image 161 and the second image 162 in a single exposure period within one frame period using multiple first pixels and multiple second pixels. In the exposure period, the timing of starting and ending the exposure of the plurality of first pixels and the plurality of second pixels are the same.

図22Aは、ローリングシャッタ動作により得られた画像におけるコード50の像一例を示す図である。図22Bは、グローバルシャッタ動作により得られた画像におけるコード50の像の一例を示す図である。図22A及び図22Bに示すように、グローバルシャッタ動作により、コード50の像の歪みを低減できる。例えば、車両が高速に移動している際も、撮影部111は、コード50の像を歪まさずに撮像することができる。よって、コード50の認識精度を向上できる。 FIG. 22A is a diagram showing an example of an image of code 50 in an image obtained by rolling shutter operation. FIG. 22B is a diagram showing an example of an image of code 50 in an image obtained by global shutter operation. As shown in FIGS. 22A and 22B, global shutter operation can reduce distortion of the image of code 50 . For example, even when the vehicle is moving at high speed, the imaging unit 111 can capture the image of the code 50 without distortion. Therefore, the recognition accuracy of the code 50 can be improved.

また、上記第1~第5の実施形態において、画像処理部142は、複数のフレーム期間のうちの一部のフレーム期間に対してのみコードを抽出するようにしてもよい。すなわち、撮像装置101は複数のフレーム期間のそれぞれにおいて第1画像161及び第2画像162を取得し、画像処理部142は、そのうちのある一部のフレーム期間に対してのみ前記コードを抽出するようにしてもよい。 Further, in the first to fifth embodiments described above, the image processing unit 142 may extract codes only for some frame periods among a plurality of frame periods. That is, the imaging device 101 acquires the first image 161 and the second image 162 in each of a plurality of frame periods, and the image processing unit 142 extracts the code only for some frame periods. can be

以上、それぞれの実施形態により、図2に示すようなコード50を高精度に抽出することが可能になる。 As described above, according to each embodiment, it is possible to extract the code 50 as shown in FIG. 2 with high accuracy.

以上、実施形態に係るシステム及び装置について説明したが、本開示は、この実施の形態に限定されるものではない。 Although the system and apparatus according to the embodiments have been described above, the present disclosure is not limited to these embodiments.

例えば、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。 For example, division of functional blocks in a block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be moved to other functional blocks. may

また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, the order in which each step in the flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and orders other than the above may be used. Also, some of the above steps may be executed concurrently (in parallel) with other steps.

また、上記実施形態に係る各装置に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Each processing unit included in each device according to the above embodiments is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

また、上記各実施の形態において、各構成要素の一部は、当該構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Also, in each of the above embodiments, part of each component may be realized by executing a software program suitable for the component. The components may be implemented by a program execution unit such as a CPU or processor reading and executing a software program recorded in a recording medium such as a hard disk or semiconductor memory.

以上、一つ又は複数の態様に係るシステム及び装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。 Although the system and apparatus according to one or more aspects have been described above based on the embodiments, the present disclosure is not limited to the embodiments. As long as it does not deviate from the spirit of the present disclosure, the scope of one or more embodiments includes various modifications that a person skilled in the art can think of, and a configuration constructed by combining the components of different embodiments. may be included within

本開示は、種々の撮像装置として有用である。また、本開示は、デジタルカメラ、デジタルビデオカメラ、カメラ付携帯電話、電子内視鏡などの医療用カメラ、車載カメラ、及びロボット用カメラ等の用途にも応用できる。 INDUSTRIAL APPLICABILITY The present disclosure is useful as various imaging devices. The present disclosure can also be applied to applications such as digital cameras, digital video cameras, mobile phones with cameras, medical cameras such as electronic endoscopes, vehicle-mounted cameras, and robot cameras.

50 コード
51、52、53 表示媒体
100 車両走行制御システム
100A 撮像システム
101 撮像装置
102 光学系
103 表示部
104 ネットワーク通信部
105 電子制御ユニット(ECU)
111 撮影部
112 ISP
113 画像送信部
114 情報取得部
115 システムコントローラ
121 出力部
122 入力部
123 プログラムメモリ
124 プログラム
125 ワーキングメモリ
126 マイコン
131 車両制御部
132 通知部
140、140A、140B 画像処理装置
142、142A 画像処理部
143 昼夜判断部
144 情報
151 差分処理部
152 抽出部
153 補正部
161、161A 第1画像
162、162A 第2画像
163 第3画像
201、201A、201B 画素
202 行走査回路
203 列走査回路
204 電流源
205 AD変換回路
206 電源線
207 水平信号線
208 垂直信号線
209 出力信号線
210 光電変換部
211 フォトダイオード
221 透明電極
222 光電変換層
223 画素電極
224 コンタクトプラグ
225 電荷蓄積部
226 半導体基板
M1 増幅トランジスタ
M2 選択トランジスタ
M3 リセットトランジスタ
50 code 51, 52, 53 display medium 100 vehicle running control system 100A imaging system 101 imaging device 102 optical system 103 display unit 104 network communication unit 105 electronic control unit (ECU)
111 imaging unit 112 ISP
113 image transmission unit 114 information acquisition unit 115 system controller 121 output unit 122 input unit 123 program memory 124 program 125 working memory 126 microcomputer 131 vehicle control unit 132 notification unit 140, 140A, 140B image processing device 142, 142A image processing unit 143 day and night Determination unit 144 Information 151 Difference processing unit 152 Extraction unit 153 Correction unit 161, 161A First image 162, 162A Second image 163 Third image 201, 201A, 201B Pixel 202 Row scanning circuit 203 Column scanning circuit 204 Current source 205 AD conversion Circuit 206 Power supply line 207 Horizontal signal line 208 Vertical signal line 209 Output signal line 210 Photoelectric conversion unit 211 Photodiode 221 Transparent electrode 222 Photoelectric conversion layer 223 Pixel electrode 224 Contact plug 225 Charge storage unit 226 Semiconductor substrate M1 Amplification transistor M2 Selection transistor M3 reset transistor

Claims (21)

非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、
前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部と、
を備え、
前記撮影部は、可視光に感度を有する複数の第1画素と、非可視光に感度を有する複数の第2画素とを含み、前記複数の第1画素により前記第1画像データを取得し、前記複数の第2画素により前記第2画像データを取得し、
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、
前記画像処理部は、前記第2画像データにおける前記コード以外の像の信号強度が、前記第1画像データにおける前記コード以外の像の信号強度よりも大きくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行う、
撮像装置。
an imaging unit that acquires first image data and second image data including an image of an object that displays a code with invisible light;
an image processing unit that extracts the code based on the first image data and the second image data;
with
The imaging unit includes a plurality of first pixels sensitive to visible light and a plurality of second pixels sensitive to non-visible light, and acquires the first image data from the plurality of first pixels, obtaining the second image data from the plurality of second pixels;
The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
The image processing unit is configured to process the first image data and the performing the correction process of multiplying at least one of the second image data by the correction coefficient;
Imaging device.
非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、
前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部と、
を備え、
前記撮影部は、可視光に感度を有する複数の第1画素と、非可視光に感度を有する複数の第2画素とを含み、前記複数の第1画素により前記第1画像データを取得し、前記複数の第2画素により前記第2画像データを取得し、
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、
前記第2画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第1強度とし、前記コード以外の像の信号強度のうち最も大きいものを第2強度とし、前記第3画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第3強度とし、前記コード以外の像の信号強度のうち最も大きいものを第4強度としたとき、前記第4強度に対する前記第3強度の比は、前記第2強度に対する前記第1強度の比よりも大きい、
像装置。
an imaging unit that acquires first image data and second image data including an image of an object that displays a code with invisible light;
an image processing unit that extracts the code based on the first image data and the second image data;
with
The imaging unit includes a plurality of first pixels sensitive to visible light and a plurality of second pixels sensitive to non-visible light, and acquires the first image data from the plurality of first pixels, obtaining the second image data from the plurality of second pixels;
The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
In the second image data, the highest signal intensity of the image of the code is set as the first intensity, the highest signal intensity of the image other than the code is set as the second intensity, and in the third image data , the highest signal intensity of the image of the code is the third intensity, and the highest signal intensity of the image other than the code is the fourth intensity, the ratio of the third intensity to the fourth intensity is a ratio is greater than the ratio of the first intensity to the second intensity;
Imaging device.
非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、
前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部と、
を備え、
前記撮影部は、可視光に感度を有する複数の第1画素と、非可視光に感度を有する複数の第2画素とを含み、前記複数の第1画素により前記第1画像データを取得し、前記複数の第2画素により前記第2画像データを取得し、
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、
前記画像処理部は、前記第1画像データにおける前記コード以外の像の信号強度と、前記第2画像データにおける前記コード以外の像の信号強度との差が小さくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行う、
像装置。
an imaging unit that acquires first image data and second image data including an image of an object that displays a code with invisible light;
an image processing unit that extracts the code based on the first image data and the second image data;
with
The imaging unit includes a plurality of first pixels sensitive to visible light and a plurality of second pixels sensitive to non-visible light, and acquires the first image data from the plurality of first pixels, obtaining the second image data from the plurality of second pixels;
The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
The image processing unit processes the first image data so as to reduce a difference between a signal intensity of an image other than the code in the first image data and a signal intensity of an image other than the code in the second image data. and performing the correction process of multiplying at least one of the second image data by the correction coefficient;
Imaging device.
非可視光によりコードを表示する対象物の像を含む、第1画像データ及び第2画像データを取得する撮影部と、 an imaging unit that acquires first image data and second image data including an image of an object that displays a code with invisible light;
前記第1画像データ及び前記第2画像データに基づいて、前記コードを抽出する画像処理部と、 an image processing unit that extracts the code based on the first image data and the second image data;
を備え、 with
前記撮影部は、可視光に感度を有する複数の第1画素と、非可視光に感度を有する複数の第2画素とを含み、前記複数の第1画素により前記第1画像データを取得し、前記複数の第2画素により前記第2画像データを取得し、 The imaging unit includes a plurality of first pixels sensitive to visible light and a plurality of second pixels sensitive to non-visible light, and acquires the first image data from the plurality of first pixels, obtaining the second image data from the plurality of second pixels;
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、 The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
昼間か夜間かを判断する昼夜判断部をさらに備え、 It further comprises a day/night determination unit that determines whether it is daytime or nighttime,
前記昼夜判断部が昼間であると判断した場合は、前記画像処理部は前記第3画像データに基づいて前記コードを抽出し、 When the day/night determination unit determines that it is daytime, the image processing unit extracts the code based on the third image data,
前記昼夜判断部が夜間であると判断した場合は、前記画像処理部は前記第2画像データに基づいて前記コードを抽出する、 When the day/night determination unit determines that it is nighttime, the image processing unit extracts the code based on the second image data.
撮像装置。 Imaging device.
前記補正係数は、前記第1画素の第1分光感度特性と、前記第2画素の第2分光感度特性とに基づいて算出される、請求項に記載の撮像装置。 3. The imaging device according to claim 2 , wherein said correction coefficient is calculated based on a first spectral sensitivity characteristic of said first pixel and a second spectral sensitivity characteristic of said second pixel. 前記補正係数は、前記第1分光感度特性に太陽光スペクトルを乗算することで得られる第1特性と、前記第2分光感度特性に前記太陽光スペクトルを乗算することで得られる第2特性とに基づいて算出される、請求項に記載の撮像装置。 The correction coefficient is a first characteristic obtained by multiplying the first spectral sensitivity characteristic by the sunlight spectrum, and a second characteristic obtained by multiplying the second spectral sensitivity characteristic by the sunlight spectrum. 6. The imaging device according to claim 5 , wherein the imaging device is calculated based on 前記対象物の一部は、非可視光を発光し、 A portion of the object emits invisible light,
前記対象物は、前記一部において非可視光を発光することで前記コードを表示する、請求項1~4のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the object displays the code by emitting invisible light at the part.
前記対象物の一部は、非可視光に対する反射率が可視光に対する反射率よりも高く、 part of the object has a higher reflectance for invisible light than for visible light,
前記対象物は、前記一部において非可視光を反射することで前記コードを表示する、請求項1~4のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the object displays the code by reflecting invisible light at the part.
前記第2画素は可視光にも感度を有する、請求項1~4のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the second pixels are also sensitive to visible light. 前記画像処理部は、抽出された前記コードに対応付けられている情報を取得する、請求項1~4のいずれか1項に記載の撮像装置。 5. The imaging device according to any one of claims 1 to 4, wherein said image processing unit acquires information associated with said extracted code. 前記情報は、交通情報を含む、請求項10に記載の撮像装置。 11. The imaging device according to claim 10 , wherein said information includes traffic information. 前記第1画素と前記第2画素とは同一の第3画素であり、
前記第3画素は、可視光に感度を有する第1状態と、非可視光に感度を有する第2状態とを有し、
前記撮影部は、前記第1状態にある前記第3画素により前記第1画像データを取得し、前記第2状態にある前記第3画素により前記第2画像データを取得する、請求項1~4のいずれか1項に記載の撮像装置。
the first pixel and the second pixel are the same third pixel;
the third pixel has a first state sensitive to visible light and a second state sensitive to invisible light;
5. The photographing unit acquires the first image data from the third pixels in the first state and acquires the second image data from the third pixels in the second state. The imaging device according to any one of .
前記第1画素が前記第1画像データを取得するときの露光期間の開始及び終了のタイミングは、前記第2画素が前記第2画像データを取得するときの露光期間の開始及び終了のタイミングと同一である、請求項1~4のいずれか1項に記載の撮像装置。 The timing of the start and end of the exposure period when the first pixel acquires the first image data is the same as the timing of the start and end of the exposure period when the second pixel acquires the second image data. The imaging device according to any one of claims 1 to 4, wherein: 前記撮影部は、複数のフレーム期間のそれぞれにおいて前記第1画像データ及び第2画像データを取得し、
前記画像処理部は、前記複数のフレーム期間のうちの一部のフレーム期間に対してのみ前記コードを抽出する、請求項1~4のいずれか1項に記載の撮像装置。
the imaging unit acquires the first image data and the second image data in each of a plurality of frame periods;
5. The imaging device according to claim 1, wherein said image processing section extracts said code only for some of said plurality of frame periods.
請求項10に記載の撮像装置と、
前記情報をユーザに通知する通知部と、
を備える、撮像システム。
an imaging device according to claim 10 ;
a notification unit that notifies the user of the information;
An imaging system comprising:
請求項10に記載の撮像装置と、
前記情報に基づいて、車両の制動及び加速を制御する車両制御部と、
を備える、車両走行制御システム。
an imaging device according to claim 10 ;
a vehicle control unit that controls braking and acceleration of the vehicle based on the information;
A vehicle cruise control system comprising:
非可視光によりコードを表示する対象物の可視光像を含む第1画像データと、前記対象物の非可視光像を含む第2画像データとに基づいて、前記コードを抽出する画像処理部を備え、
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、
前記画像処理部は、前記第2画像データにおける前記コード以外の像の信号強度が、前記第1画像データにおける前記コード以外の像の信号強度よりも大きくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行う、
画像処理装置。
an image processing unit for extracting the code based on first image data including a visible light image of an object for which the code is displayed using invisible light and second image data including an invisible light image of the object; prepared,
The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
The image processing unit is configured to process the first image data and the performing the correction process of multiplying at least one of the second image data by the correction coefficient;
Image processing device.
非可視光によりコードを表示する対象物の可視光像を含む第1画像データと、前記対象物の非可視光像を含む第2画像データとに基づいて、前記コードを抽出する画像処理部を備え、 an image processing unit that extracts the code based on first image data including a visible light image of an object for which the code is displayed using invisible light and second image data including an invisible light image of the object; prepared,
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、 The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
前記第2画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第1強度とし、前記コード以外の像の信号強度のうち最も大きいものを第2強度とし、前記第3画像データにおいて、前記コードの像の信号強度のうち最も大きいものを第3強度とし、前記コード以外の像の信号強度のうち最も大きいものを第4強度としたとき、前記第4強度に対する前記第3強度の比は、前記第2強度に対する前記第1強度の比よりも大きい、 In the second image data, the highest signal intensity of the image of the code is set as the first intensity, the highest signal intensity of the image other than the code is set as the second intensity, and in the third image data , the highest signal intensity of the image of the code is the third intensity, and the highest signal intensity of the image other than the code is the fourth intensity, the ratio of the third intensity to the fourth intensity is a ratio is greater than the ratio of the first intensity to the second intensity;
画像処理装置。 Image processing device.
非可視光によりコードを表示する対象物の可視光像を含む第1画像データと、前記対象物の非可視光像を含む第2画像データとに基づいて、前記コードを抽出する画像処理部を備え、 an image processing unit that extracts the code based on first image data including a visible light image of an object for which the code is displayed using invisible light and second image data including an invisible light image of the object; prepared,
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、 The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
前記画像処理部は、前記第1画像データにおける前記コード以外の像の信号強度と、前記第2画像データにおける前記コード以外の像の信号強度との差が小さくなるように、前記第1画像データ及び前記第2画像データの少なくとも一方に前記補正係数を乗算する前記補正処理を行う、 The image processing unit processes the first image data so as to reduce a difference between a signal intensity of an image other than the code in the first image data and a signal intensity of an image other than the code in the second image data. and performing the correction process of multiplying at least one of the second image data by the correction coefficient;
画像処理装置。 Image processing device.
非可視光によりコードを表示する対象物の可視光像を含む第1画像データと、前記対象物の非可視光像を含む第2画像データとに基づいて、前記コードを抽出する画像処理部を備え、 an image processing unit that extracts the code based on first image data including a visible light image of an object for which the code is displayed using invisible light and second image data including an invisible light image of the object; prepared,
前記画像処理部は、前記第1画像データ及び前記第2画像データの少なくとも一方に補正係数を乗算する補正処理を行い、補正処理によって得られた2つの画像データの差分より第3画像データを生成し、前記第3画像データに基づいて前記コードを抽出し、 The image processing unit performs correction processing for multiplying at least one of the first image data and the second image data by a correction coefficient, and generates third image data from a difference between the two image data obtained by the correction processing. and extracting the code based on the third image data;
昼間か夜間かを判断する昼夜判断部をさらに備え、 It further comprises a day/night determination unit that determines whether it is daytime or nighttime,
前記昼夜判断部が昼間であると判断した場合は、前記画像処理部は前記第3画像データに基づいて前記コードを抽出し、 When the day/night determination unit determines that it is daytime, the image processing unit extracts the code based on the third image data,
前記昼夜判断部が夜間であると判断した場合は、前記画像処理部は前記第2画像データに基づいて前記コードを抽出する、 When the day/night determination unit determines that it is nighttime, the image processing unit extracts the code based on the second image data.
画像処理装置。 Image processing device.
前記画像処理部は、抽出された前記コードに対応づけられている情報を取得する、請求項17~20のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 17 to 20, wherein said image processing section acquires information associated with said extracted code.
JP2018086282A 2017-05-26 2018-04-27 Imaging device, imaging system, vehicle driving control system, and image processing device Active JP7113283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022081981A JP7331201B2 (en) 2017-05-26 2022-05-19 Imaging device, imaging system, vehicle driving control system, and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017104721 2017-05-26
JP2017104721 2017-05-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022081981A Division JP7331201B2 (en) 2017-05-26 2022-05-19 Imaging device, imaging system, vehicle driving control system, and image processing device

Publications (2)

Publication Number Publication Date
JP2018201196A JP2018201196A (en) 2018-12-20
JP7113283B2 true JP7113283B2 (en) 2022-08-05

Family

ID=64400455

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018086282A Active JP7113283B2 (en) 2017-05-26 2018-04-27 Imaging device, imaging system, vehicle driving control system, and image processing device
JP2022081981A Active JP7331201B2 (en) 2017-05-26 2022-05-19 Imaging device, imaging system, vehicle driving control system, and image processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022081981A Active JP7331201B2 (en) 2017-05-26 2022-05-19 Imaging device, imaging system, vehicle driving control system, and image processing device

Country Status (2)

Country Link
US (4) US10616495B2 (en)
JP (2) JP7113283B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207618A (en) * 2018-05-30 2019-12-05 日本電気株式会社 Information processing system
JP2019207617A (en) * 2018-05-30 2019-12-05 日本電気株式会社 Information processing system
JP2019214903A (en) * 2018-06-14 2019-12-19 国立大学法人群馬大学 Road-related information display device and road-related information notification system
US11315483B2 (en) * 2019-04-18 2022-04-26 Google Llc Systems, devices, and methods for an infrared emitting display
CN111586314B (en) * 2020-05-25 2021-09-10 浙江大华技术股份有限公司 Image fusion method and device and computer storage medium
JPWO2022024688A1 (en) * 2020-07-27 2022-02-03
CN115185152A (en) * 2022-06-24 2022-10-14 长春理工大学 Catadioptric panoramic vision detection device with anti-exposure system and anti-exposure method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007163367A (en) 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2009037487A (en) 2007-08-02 2009-02-19 Canon Inc System, head mounted display device, its control method
JP2010092436A5 (en) 2008-10-10 2011-11-24
JP2012221303A (en) 2011-04-11 2012-11-12 Mitsubishi Electric Corp In-vehicle lighting device for driving support and in-vehicle driving support device and driving support system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202497A (en) 2000-01-18 2001-07-27 Toyota Motor Corp Method and system for detecting preceding vehicle
JP2003296659A (en) 2002-04-01 2003-10-17 Denso Corp Notification medium, its reader and reading-out system
JP4306671B2 (en) * 2005-11-04 2009-08-05 セイコーエプソン株式会社 Moving image display device and moving image display method
JP2008252327A (en) 2007-03-29 2008-10-16 Toyota Motor Corp Vehicle periphery monitoring device
JP5200861B2 (en) 2007-12-10 2013-06-05 富士通株式会社 Sign judging device and sign judging method
JP5156571B2 (en) * 2008-10-10 2013-03-06 キヤノン株式会社 Image processing apparatus and image processing method
US8432404B2 (en) * 2008-12-15 2013-04-30 Leonovus Usa Inc. Media action script acceleration method
WO2011154978A2 (en) * 2010-06-10 2011-12-15 Tata Consultancy Services Limited An illumination invariant and robust apparatus and method for detecting and recognizing various traffic signs
JP5867355B2 (en) 2012-10-02 2016-02-24 株式会社デンソー Status monitoring device and status monitoring program
JP6062214B2 (en) 2012-11-06 2017-01-18 株式会社小糸製作所 Road-to-vehicle communication system and transmission / reception device
US11509880B2 (en) * 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
US9013590B2 (en) * 2012-12-13 2015-04-21 Raytheon Company Pixel multiplication using code spread functions
GB2520338A (en) * 2013-11-19 2015-05-20 Nokia Corp Automatic scene parsing
JP6336337B2 (en) 2014-06-16 2018-06-06 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
US10863202B2 (en) * 2015-06-12 2020-12-08 Shaoher Pan Encoding data in a source image with watermark image codes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007163367A (en) 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2009037487A (en) 2007-08-02 2009-02-19 Canon Inc System, head mounted display device, its control method
JP2010092436A5 (en) 2008-10-10 2011-11-24
JP2012221303A (en) 2011-04-11 2012-11-12 Mitsubishi Electric Corp In-vehicle lighting device for driving support and in-vehicle driving support device and driving support system

Also Published As

Publication number Publication date
US20200195830A1 (en) 2020-06-18
US11528424B2 (en) 2022-12-13
JP7331201B2 (en) 2023-08-22
US20210051261A1 (en) 2021-02-18
US12041382B2 (en) 2024-07-16
US10841505B2 (en) 2020-11-17
JP2022119859A (en) 2022-08-17
US20230060498A1 (en) 2023-03-02
JP2018201196A (en) 2018-12-20
US10616495B2 (en) 2020-04-07
US20180343373A1 (en) 2018-11-29

Similar Documents

Publication Publication Date Title
JP7331201B2 (en) Imaging device, imaging system, vehicle driving control system, and image processing device
KR102560795B1 (en) Imaging device and electronic device
US20180160027A1 (en) Image Sensor with In-Pixel Depth Sensing
CN103460105B (en) Imaging device and auto-focusing control method thereof
US20140263951A1 (en) Image sensor with flexible pixel summing
US20170213863A1 (en) High dynamic range image sensor with reduced sensitivity to high intensity light
US20130070109A1 (en) Imaging system with foveated imaging capabilites
US9307207B2 (en) Glaring reduction for dynamic rearview mirror
US20130026384A1 (en) Time-of-flight imaging systems
JP2009141813A (en) Imaging apparatus, camera, vehicle and imaging method
JP2012215785A5 (en)
US20130070140A1 (en) Image sensors with multiple lenses of varying polarizations
CN112740659A (en) Solid-state image pickup element and image pickup apparatus
JP2010268264A (en) Imaging element and imaging apparatus
US10574872B2 (en) Methods and apparatus for single-chip multispectral object detection
KR20080017597A (en) Apparatus and method for supporting high quality image
CN110235432B (en) Solid-state imaging device and driving method thereof
US20160353017A1 (en) Electronic device and method for photographing image
CN113676679A (en) Image pickup apparatus and image pickup system
CN111863844B (en) Imaging device and electronic equipment
CN113785561B (en) Image pickup apparatus
US20220222912A1 (en) Light receiving device, solid-state imaging apparatus, electronic equipment, and information processing system
WO2017101864A1 (en) Image sensor, control method, and electronic device
TWI577971B (en) Dual-aperture ranging system
WO2023021780A1 (en) Imaging device, electronic apparatus, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R151 Written notification of patent or utility model registration

Ref document number: 7113283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151