JP2020198470A - 画像認識装置および画像認識方法 - Google Patents

画像認識装置および画像認識方法 Download PDF

Info

Publication number
JP2020198470A
JP2020198470A JP2019101728A JP2019101728A JP2020198470A JP 2020198470 A JP2020198470 A JP 2020198470A JP 2019101728 A JP2019101728 A JP 2019101728A JP 2019101728 A JP2019101728 A JP 2019101728A JP 2020198470 A JP2020198470 A JP 2020198470A
Authority
JP
Japan
Prior art keywords
image
subject
recognition
pixel
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019101728A
Other languages
English (en)
Inventor
和幸 奥池
Kazuyuki Okuchi
和幸 奥池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2019101728A priority Critical patent/JP2020198470A/ja
Priority to CN202080038430.6A priority patent/CN113875217A/zh
Priority to US17/603,138 priority patent/US20220201183A1/en
Priority to KR1020217037346A priority patent/KR20220016056A/ko
Priority to DE112020002567.5T priority patent/DE112020002567T5/de
Priority to PCT/JP2020/019587 priority patent/WO2020241336A1/ja
Publication of JP2020198470A publication Critical patent/JP2020198470A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】被写体の認識精度を向上させることができる画像認識装置および画像認識方法を提供すること。【解決手段】本開示に係る画像認識装置は、撮像部と、認識部とを有する。撮像部は、可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成する。認識部は、画像データのそれぞれから被写体を認識する。【選択図】図2B

Description

本開示は、画像認識装置および画像認識方法に関する。
1フレーム期間に感度が異なる複数の画像を撮像して合成することによりHDR(High Dynamic Range)画像を生成するHDR撮像モードを備え、HDR画像から被写体を認識する撮像装置がある(例えば、特許文献1参照)。
また、可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用して撮像した画像を合成することにより、HDR画像を生成し、HDR画像から被写体を認識する撮像装置もある。
特開2014−103643号公報
しかしながら、上記の従来技術では、被写体の認識精度が低下することがある。そこで、本開示では、被写体の認識精度を向上させることができる画像認識装置および画像認識方法を提案する。
本開示に係る画像認識装置は、撮像部と、認識部とを有する。撮像部は、可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成する。認識部は、前記画像データのそれぞれから被写体を認識する。
本開示に係る画素アレイを示す説明図である。 一般的なDNNの使用例を示す説明図である。 本開示に係るDNNの使用例を示す説明図である。 本開示に係る画像認識システムの構成例を示す図である。 本開示に係る信号処理部が実行する処理の説明図である。 本開示に係る認識部が実行する処理の説明図である。 本開示に係る認識部が実行する処理の説明図である。 本開示に係る信号処理部が実行する処理の変形例を示す説明図である。 本開示に係る認識部が使用するDNNの変形例を示す説明図である。 本開示に係る画素アレイの第1変形例を示す説明図である。 本開示に係る画素アレイの第2変形例を示す説明図である。 本開示に係る画素アレイの第2変形例を採用した場合のDNNの使用例を示す説明図である。 本開示に係る画素アレイの第3変形例を示す説明図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[1.画像認識方法の概要]
まず、本開示に係る画像認識方法の概要について説明する。本開示に係る画像認識方法では、可視光を受光する撮像画素と、赤外光を受光する撮像画素を使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成し、画像データのそれぞれから被写体を認識する。ここでの同一露光タイミングで撮像するとは、例えば、複数の画素の露光を別々のタイミングで開始させ、同一のタイミングで終了させて画像を撮像することを意味する。
複数の画像の撮像には、HDR(High Dynamic Range)画像の撮像に使用される画素アレイを使用する。図1は、本開示に係る画素アレイを示す説明図である。例えば、図1に示すように、HDR画像の撮像に使用される画素アレイA1は、赤色光を受光する撮像画素R、緑色光を受光する撮像画素Gr、Gb、青色光を受光する撮像画素Bがベイヤ配列されている。
なお、撮像画素Grは、撮像画素Rが配置される列に設けられて緑色光を受光する撮像画素である。撮像画素Gbは、撮像画素Bが配置される列に設けられて緑色光を受光する撮像画素である。
撮像画素R、Gr、Gb、Bは、それぞれ、L字状に配置される受光面積が同一の3個の撮像素子を備える。撮像素子Lは、撮像素子M、Sに比べて露光時間が長い長時間露光素子である。撮像素子Sは、撮像素子L、Mに比べて露光時間が短い短時間露光素子である。
撮像素子Mは、撮像素子Sよりも露光時間が長く、撮像素子Lよりも露光時間が短い中時間露光素子である。また、画素アレイA1は、同色の光を受光するL字状に配置された撮像素子L、M、Sによって三方が囲まれる位置に、赤外光を受光する撮像画素となる撮像素子IRを備える。
撮像素子Lは、露光時間が長いので、周囲が暗い場合であっても十分な受光量を得ることができる。これにより、撮像素子Lは、輝度が低すぎて通常の露光時間では黒つぶれするような被写体であっても、被写体の像がきれいに写った高感度画像(以下、長時間露光画像という場合がある)を撮像することができる。
撮像素子Sは、露光時間が短いので、周囲が明るい場合であっても飽和することがない。これにより、撮像素子Sは、輝度が高すぎて通常の露光時間では白飛びするような被写体であっても、被写体の像がきれいに写った低感度画像(以下、短時間露光画像という場合がある)を撮像することができる。なお、撮像素子Mは、一般的なデジタルカメラと同様の露光時間で中感度画像(以下、中時間露光画像という場合がある)を撮像することができる。
撮像素子IRは、赤外光を受光するので、例えば、肉眼では見え難い暗闇での歩行者や車両、車両のヘッドライトやスポットライトで見え難い歩行者、煙や霧で見え難い物体等の像がきれいに写ったIR(Infrared Ray)画像を撮像することができる。また、撮像素子IRは、被写体の熱情報を検知することもできる。
HDR画像は、上記した高感度画像、中間度画像、低感度画像、およびIR画像をHDR合成することによって生成される。このため、HDR画像は、暗い被写体、明るい被写体、および肉眼ではみえ難い被写体等の全ての被写体の像がきれいに写った画像となる。
なお、図1に示す画素アレイA1では、露光時間を異ならせることで、受光面積が同一の撮像素子L、M、Sによって高感度画像、中感度画像、または低感度画像を撮像するが、これは一例である。例えば、画素アレイA1は、各撮像画素に積層されるカラーフィルタの透光率を異ならせることで、露光時間を同一にしても、高感度画像、中感度画像、または低感度画像を撮像することができる。
この場合、画素アレイA1では、カラーフィルタの透光率が通常よりも高い撮像画素が高感度撮像画素となり、カラーフィルタの透光率が通常の撮像画素が中感度撮像画素となり、カラーフィルタの透光率が通常よりも低い撮像画素が低感度撮像画素となる。
なお、露光開始時間を異ならせる方法として、露光開始時間を同一にし露光終了時間を異ならせる方法、露光開始時間を異ならせ露光終了時間を同一にする方法、露光開始時間と終了時間のいずれも異なる時間にする方法を用いても、高感度画像、中感度画像、または低感度画像を撮像することができる。
かかる画素アレイA1によっても、同時に高感度画像および低感度画像を撮像することができるので、両画像をHDR合成することにより、HDR画像を撮像することが可能である。また、撮像画素の受光面積を異ならせることで、カラーフィルタの透光性および露光時間が同一の撮像画素を高感度撮像画素または低感度撮像画素として機能させることもできる。
ここで、画像データから被写体を認識する方法の一例として、DNN(Deep Neural Network)を用いる画像認識方法がある。DNNは、画像データから被写体の特徴(パターン)を認識するように機械学習によって設計された人間の脳神経回路(ニューラルネットワーク)をモデルとした多階層構造のアルゴリズムである。
図2Aは、一般的なDNNの使用例を示す説明図である。例えば、HDR画像から被写体を認識する場合、図2Aに示すように、HDR合成後のHDR画像における赤R、緑G、青Bの各画素の信号R、G、B(HDR画像の画像データ)をDNNへ入力すると、DNNから被写体の認識結果が出力される。
しかしながら、HDR画像には、HDR合成が行われたことで、実際には存在しないアーチファクトが写り込むことがある。このため、HDR画像における各画素の信号R、G、BをDNNへ入力すると、アーチファクトの弊害によって、DNNによる被写体の認識精度が低下することがある。
そこで、本開示では、HDR合成前の高感度画像、中感度画像、低感度画像、およびIR画像のそれぞれから被写体を認識することで、アーチファクトの影響を排除し、被写体の認識精度を向上させる。図2Bは、本開示に係るDNNの使用例を示す説明図である。
図2Bに示すように、本開示では、例えば、撮像素子Lから出力される長時間露光信号R、Gr、Gb、B(高感度画像の画像データ)と、撮像素子Mから出力される中時間露光信号R、Gr、Gb、B(中感度画像の画像データ)とをDNNへ入力する。さらに、本開示では、撮像素子Sから出力される短時間露光信号R、Gr、Gb、B(低感度画像の画像データ)と、撮像素子IRから出力される赤外光信号IRr、IRgr、IRgb、IRb(IR画像の画像データ)をDNNへ入力する。
これにより、DNNは、高感度画像、中感度画像、低感度画像とIR画像から被写体を認識した認識結果とを出力する。
このとき、DNNは、アーチファクトを含まない高感度画像、中感度画像、低感度画像
およびIR画像から被写体を認識するので、アーチファクトの影響を受けることなく高精度な被写体の認識結果を出力することができる。
このように、本開示に係る画像認識方法は、可視光を受光する撮像画素と、赤外光を受光する撮像画素を使用し、1フレーム期間に複数の露光時間で撮像し、これら全てを用いて被写体を認識するので被写体の認識精度を向上させることができる。
[2.画像認識システムの構成]
次に、図3を参照し、本開示に係る画像認識システムの構成について説明する。図3は、本開示に係る画像認識システムの構成例を示す図である。図3に示すように、本開示に係る画像認識システム100は、画像認識装置の一例であるイメージセンサ1と、アプリケーションプロセッサ(以下、AP2と記載する)とを有する。
イメージセンサ1は、撮像部10と、信号処理部13と、認識部14と、データ送信判断部15と、セレクタ(以下、SEL16と記載する)と、送信部17とを備える。撮像部10は、画素アレイA1と、A/D(Analog/Digital)変換部12とを備える。
画素アレイA1は、撮像素子L、M、S、IRによって、高感度画像、中感度画像、低感度画像、およびIR画像を撮像する。そして、画素アレイA1は、撮像素子L、M、S、IRからA/D変換部12へ受光量に応じたアナログの画素信号を出力する。
A/D変換部12は、画素アレイA1から入力されるアナログの画素信号をデジタルの画素信号にA/D変換して高感度画の画像データと、中感度の画像データと、低感度画像の画像データと、赤外光の画像データとを生成し、信号処理部13へ出力する。
信号処理部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。
信号処理部13は、A/D変換部12から入力される高感度画の画像データと、中感度の画像データと、低感度画像の画像データと、赤外光の画像データとに対して、それぞれ所定の信号処理を実行する。そして、信号処理部13は、信号処理後の高感度画の画像データと、中感度の画像データと、低感度画像の画像データと、赤外光の画像データとを認識部14と、SEL16へ出力する。
ここで、図4を参照し、信号処理部13が実行する処理の流れについて説明する。図4は、本開示に係る信号処理部が実行する処理の説明図である。図4に示すように、信号処理部13は、入力される画像データに対して、まず、シェーディング補正を行い、続いて、混色補正を行う。
その後、信号処理部13は、画像データに対してデジタルゲイン調整を行い、続いて、ホワイトバランスゲイン調整を行う。その後、信号処理部13は、画像データに対してデモザイクを行った後、最後にガンマ補正を行い、ガンマ補正後の画像データを出力する。
なお、デモザイクでは、高感度画像、中感度画像、低感度画像、およびIR画像の各画素の色を周囲の画素の色によって補完する処理を行う。このため、デモザイク前の高感度画像、中感度画像、低感度画像の画像データは、それぞれ4種類の画素信号R、Gr、Gb、Bとなるが、デモザイク後の画像データは、3種類の画素信号R、G、Bとなる。また、デモザイク前のIR画像の画像データは、4種類の画素信号IRr、IRgr、IRgb、IRbとなるが、デモザイク後の画像データは、1種類の画像信号IRとなる。
図3へ戻り、認識部14は、CPU、ROM、RAMなどを有するマイクロコンピュータや各種の回路を含む。認識部14は、CPUがROMに記憶された物体認識プログラムを、RAMを作業領域として使用して実行することにより機能する物体認識部31と、RAMまたはROMに設けられる物体認識用データ記憶部32とを備える。物体認識用データ記憶部32には、認識対象となる物体の種類毎にDNNが記憶されている。
物体認識部31は、設定される認識対象の種類に応じたDNNを物体認識用データ記憶部32から読出し、画像データをDNNへ入力してDNNから出力される被写体の認識結果をデータ送信判断部15へ出力し、認識結果のメタデータをSEL16へ出力する。
ここで、図5Aよび図5Bを参照し、認識部14が行う処理の流れについて説明する。図5Aおよび図5Bは、本開示に係る認識部が実行する処理の説明図である。図5Aに示すように、認識部14は、まず、入力される画像データのサイズおよび入力値をDNN用のサイズおよび入力値に合わせて正規化し、正規化後の画像データをDNNへ入力して物体認識を行う。そして、認識部14は、DNNから出力される被写体の認識結果をデータ送信判断部15へ出力し、認識結果のメタデータをSEL16へ出力する。
このとき、図5Bに示すように、認識部14は、長時間露光信号R、G、Bと、中時間露光信号R、G、Bと、短時間露光信号R、G、Bと、赤外光信号IRとをDNNへ入力する。これにより、認識部14は、アーチファクトのない高感度画像、中感度画像、低感度画像、およびIR画像のそれぞれから被写体を認識することで、被写体の認識精度を向上させることができる。
図3へ戻り、データ送信判断部15は、認識部14から入力される認識結果に応じてSEL16から出力させるデータを切替える制御信号をSEL16へ出力する。データ送信判断部15は、認識部14によって被写体が認識された場合には、画像データと、認識結果を示すメタデータとを送信部17へ出力させる制御信号をSEL16へ出力する。
また、データ送信判断部15は、認識部14によって被写体が認識されなかった場合、その旨を示す情報(ノーデータ)を送信部17へ出力させる制御信号をSEL16へ出力する。SEL16は、データ送信判断部15から入力される制御信号に応じて、画像データおよびメタデータのセット、または、ノーデータのいずれかを送信部17へ出力する。
送信部17は、AP2との間でデータ通信を行う通信I/F(インターフェース)であり、SEL16から入力される画像データおよびメタデータのセット、または、ノーデータのいずれかをAP2へ送信する。
このように、イメージセンサ1は、被写体を認識した場合に限って画像データをAP2へ送信し、被写体を認識しない場合には、画像データをAP2へ送信することがないため、画像データの送信に要する消費電力を低減することができる。
AP2は、画像認識システム100の用途に応じた各種アプリケーションプログラムを実行するCPU、ROM、RAMなどを有するマイクロコンピュータや各種の回路を含む。AP2は、受信部21と、認証部22と、認証用データ記憶部23とを備える。
認証用データ記憶部23には、イメージセンサ1によって認識された被写体を認証するための認証用プログラムおよび認証用画像データ等が記憶されている。受信部21は、イメージセンサ1との間でデータ通信を行う通信I/Fである。受信部21は、イメージセンサ1から画像データおよびメタデータのセット、または、ノーデータのいずれかを受信して認証部22へ出力する。
認証部22は、受信部21からノーデータが入力される場合には起動せず、画像データおよびメタデータのセットが入力された場合に起動する。認証部22は、起動すると認証用データ記憶部23から認証用プログラムを読み出して実行し、イメージセンサ1によって認識された被写体を認証する。
例えば、認証部22は、被写体が人であることを示すメタデータと画像データのセットが入力される場合、画像データと人の認証用画像データとを照合し、認識された人が誰かを特定する処理等を行う。
このとき、認証部22は、イメージセンサ1によって被写体が人であると高精度に認識されたアーチファクトの影響がない高感度画像、中感度画像、低感度画像、およびIR画像の画像データに基づいて人を特定する。これにより、認証部22は、認識された人が誰かを的確に特定することができる。なお、上記した実施形態は、一例であり、種々の変形が可能である。次に本開示に係る実施形態に係る変形例について説明する。
[3.信号処理部が実行する処理の変形例]
図6は、本開示に係る信号処理部が実行する処理の変形例を示す説明図である。図7は、本開示に係るDNNの使用例の変形例を示す説明図である。
図6に示すように、変形例に係る信号処理部は、入力される画像データに対して、シェーディング補正、混色補正、デジタルゲイン調整、ホワイトバランスゲイン調整、およびガンマ補正を行い、信号処理後の画像データを認識部14と、SEL16とに出力する。
このように、信号処理部は、図4に示した信号処理からデモザイクを省略することができる。この場合、認識部14は、デモザイクが実行されない画像データから被写体を認識する。前述したように、デモザイクが実行されない高感度画像、中感度画像、および低感度画像の画像データは、4種類の画素信号R、Gr、Gb、Bとなる。また、デモザイクが実行されないIR画像の画像データは、画素信号IRr、IRgr、IRgb、IRbとなる。
このため、認識部14は、長時間露光信号R、Gr、Gb、Bと、中時間露光信号R、Gr、Gb、Bと、短時間露光信号R、Gr、Gb、Bとと、赤外光信号IRr、IRgr、IRgb、IRをDNNへ入力する(図2B参照)。かかる場合、認識部14は、DNNの入力チャンネル数が増えるので処理量が増すが、DNNには、高感度画像、中感度画像、低感度画像、IR画像の画像データが個別に入力されるので、アーチファクトの影響を受けることなく被写体を高精度に認識することができる。
なお、他の変形例では、信号処理部自体を省略することもできる。かかる場合にも同様に、認識部14は、長時間露光信号R、Gr、Gb、Bと、中時間露光信号R、Gr、Gb、Bと、短時間露光信号R、Gr、Gb、Bとと、赤外光信号IRr、IRgr、IRgb、IRをDNNへ入力する。このため、認識部14は、処理量が増すが、信号処理を行わない分、イメージセンサ1全体としての処理量が大幅に低減される。
なお、上記した実施形態では、データ送信判断部15は、被写体を認識した場合に、毎回、認識結果のメタデータと画像データとをSEL16に出力させたが、バッテリ残量に応じてSEL16から出力させるデータを選択してもよい。
例えば、データ送信判断部15は、認識部14によって被写体が認識された場合、バッテリの残量が所定残量以上ある状態の通常モードでは、メタデータと画像データとをSEL16から出力させる。また、データ送信判断部15は、バッテリの残量が所定残量未満の状態の低消費電力モードでは、メタデータのみをSEL16から出力させる。これにより、データ送信判断部15は、バッテリの残量が不足している場合に、イメージセンサ1の消費電力を低く抑えることができる。
[4.認識部による被写体認識の変形例]
図7は、本開示に係る認識部が使用するDNNの変形例を示す説明図である。図2Bおよび図5Bに示した例では、認識部14は、1つのDNNを使用して被写体の認識を行ったが、図7に示すように、2つのDNNを使用することもできる。
具体的には、長時間露光画像、中時間露光画像、および短時間露光画像には、色彩があるが、IR画像には、色彩がない。このため、長時間露光画像、中時間露光画像、および短時間露光画像と、IR画像とでは、画像中の被写体の特徴が異なる。
そこで、変形例に係る認識部は、第1DNNと、第2DNNとを使用して被写体を認識する。第1DNNは、長時間露光画像、中時間露光画像、および短時間露光画像から被写体を認識することに特化して機械学習された学習モデルである。第2DNNは、IR画像から被写体を認識することに特化して機械学習された学習モデル。
変形例に係る認識部は、第1DNNへ長時間露光信号R、G、B、中時間露光信号R、G、B、短時間露光信号R、G、Bを入力して、長時間露光画像、中時間露光画像、および短時間露光画像から被写体を認識する。また、認識部は、第2DNNへ赤外光信号を入力して、IR画像から被写体を認識する。これにより、認識部は、被写体の認識精度をさらに向上させることができる。
[5.画素アレイの変形例]
図8は、本開示に係る画素アレイの第1変形例を示す説明図である。図9は、本開示に係る画素アレイの第2変形例を示す説明図である。図10は、本開示に係る画素アレイの第2変形例を採用した場合のDNNの使用例を示す説明図である。図11は、本開示に係る画素アレイの第3変形例を示す説明図である。
図8に示すように、第1変形例に係る画素アレイA2は、図1に示した撮像素子IRの代わりにToF(Time of Flight)センサを備える。画素アレイA2を採用する場合、イメージセンサ1は、被写体へ向けて赤外光を照射する発光部を備える。
ToFセンサは、赤外光が照射されてから、被写体に反射した赤外光を受光するまでの時間に基づいて、被写体までの距離を測定するセンサである。イメージセンサ1は、かかる画素アレイA2を採用することによって、被写体の認識に加えて、被写体までの距離を測定することができる。
また、図9に示すように、第2変形例に係る画素アレイA3は、赤色光を受光する撮像画素Rと、緑色光を受光する撮像画素Gと、青色光を受光する撮像画素Bと、赤外光を受光するIRとを備える。
撮像画素Rは、長時間露光する撮像素子RLと短時間露光する撮像素子RSとを備える。撮像画素Gは、長時間露光する撮像素子GLと短時間露光する撮像素子GSとを備える。撮像画素Bは、長時間露光する撮像素子BLと短時間露光する撮像素子BSとを備える。
このように、画素アレイA3は、各撮像画素R、G、Bが、それぞれ2個の撮像素子RL、RS,GL、GS、BL、BSを備える。かかる画素アレイA3は、一般的には、各撮像画素R、G、Bが備える全ての撮像素子RL、RS,GL、GS、BL、BSの露光時間を同一にし、左右の撮像素子で受光される光の位相差に基づいて焦点を自動調整するオートフォーカスに使用される。
本開示では、かかる画素アレイA3の撮像画素R、G、Bが備える撮像素子RL、RS,GL、GS、BL、BSの露光時間を個別に制御することで、撮像素子RL、GL、BLを長時間露光画素、撮像素子RS,GS,BSを短時間露光画素として機能させる。
これにより、画素アレイA3は、長時間露光画像および短時間露光画像を撮像することができる。また、画素アレイA3は、撮像素子IRを備えるので、長時間露光画像および短時間露光画像と同時にIR画像を撮像することもできる。
認識部14は、画素アレイA3が採用される場合、図10に示すように、撮像画素RL、GL、BLから出力される長時間露光信号、撮像画素RS、GS、BS出力される短時間露光信号、および撮像素子IRから出力される赤外光信号をDNNへ入力する。これにより、認識部14は、長時間露光画像、短時間露光画像、およびIR画像のそれぞれから高精度に被写体を認識することができる。
また、図11に示すように、第4変形例に係る画素アレイA4は、図9に示した画素アレイA3と同様に、赤色光を受光する一対の撮像素子R、R、緑色光を受光する一対の撮像素子G、G、および青色光を受光する撮像素子B、Bを備える。また、画素アレイA4は、赤外光を受光する一対の撮像素子IR、IRを備える。各撮像素子R、G、B、IRは、それぞれ、2個の光電変換素子PDを備える。
かかる画素アレイA4では、例えば、一対の撮像素子R、Rが備える4個の光電変換素子PDのうち、1個を長時間露光、2個を中時間露光、残りの1個を短時間露光させる。また、画素アレイA4では、一対の撮像素子G、Gが備える4個の光電変換素子PDのうち、1個を長時間露光、2個を中時間露光、残りの1個を短時間露光させる。
また、画素アレイA4では、例えば、一対の撮像素子B、Bが備える4個の光電変換素子PDのうち、1個を長時間露光、2個を中時間露光、残りの1個を短時間露光させる。これにより、画素アレイA4は、長時間露光画像、中時間露光画像、および短時間露光画像を撮像することができる。
また、画素アレイA4は、撮像素子IR、IRを露光させることで、IR画像を撮像することができる。かかる画素アレイA4が採用される場合、認識部14は、長時間露光画像、中時間露光画像、短時間露光画像、およびIR画像の画像データをDNNへ入力することにより、アーチファクトの影響を受けることなく、高精度に被写体を認識することができる。
[6.効果]
画像認識装置の一例であるイメージセンサ1は、撮像部10と、認識部14とを有する。撮像部10は、可視光を受光する撮像画素R、Gr、Gb、Bと、赤外光を受光する撮像画素IRとを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成する。認識部は、画像データのそれぞれから被写体を認識する。これにより、イメージセンサ1は、アーチファクトの影響を排除することで、被写体の認識精度を向上させることができる。
また、撮像部10は、受光面積が同一であり露光時間が異なる複数の撮像画素R、Gr、Gb、Bと、赤外光を受光する撮像画素IRとが2次元に配列された画素アレイA1を有する。これにより、イメージセンサ1は、露光時間の異なる画像データおよびIR画像のそれぞれから被写体を認識することで、アーチファクトの影響を受けることなく、高精度に被写体を認識することができる。
また、画素アレイA1は、可視光を受光する長時間露光撮像画素の一例である撮像素子L、中時間露光撮像画素の一例である撮像素子M、および短時間露光撮像画素の一例である撮像素子Sを有する。これにより、イメージセンサ1は、長時間露光画像、中時間露光画像、および短時間露光画像のそれぞれから被写体を認識することで、アーチファクトの影響を受けることなく、高精度に被写体を認識することができる。
また、画素アレイA3は、各画素が露光時間の異なる2個の撮像素子RL、RS,GL、GS、BL、BSによって構成される。これにより、イメージセンサ1は、オートフォーカス用の位相差画素を使用して、長時間露光画像および短時間露光画像を撮像することができる。
また、画素アレイA4は、各画素が2個の撮像素子R、R、G、G、B、Bによって構成される。各撮像素子R、G、Bは、露光時間の異なる2個の光電変換素子PDを備える。これにより、イメージセンサ1は、各光電変換素子PDの露光時間を制御することによって、長時間露光画像、中時間露光画像、および短時間露光画像を撮像することができる。
また、認識部14は、被写体を認識した場合に、被写体の認識結果および画像データを後段の装置の一例であるAP2へ出力し、被写体を認識しない場合に、その旨を示す情報をAP2へ出力する。これにより、イメージセンサ1は、被写体を認識しない場合に、画像データの出力を行わないので、消費電力を低減することができる。
また、認識部14は、バッテリの残量が所定残量以上である場合に、被写体の認識結果および画像データをAP2へ出力し、所定残量未満の場合に、AP2へ画像データを出力することなく被写体の認識結果を出力する。これにより、イメージセンサ1は、バッテリ残量が所定残量未満である場合に、被写体を認識しても画像データの出力を行わないので、消費電力を低減することができる。
また、認識部14は、デモザイク処理が実行された画像データから被写体を認識する。これにより、イメージセンサ1は、DNNを使用して被写体を認識する場合に、DNNの入力チャンネル数を低減することによって、処理負荷を低減することができる。
また、認識部14は、デモザイク処理が実行されない画像データから被写体を認識する。これにより、イメージセンサ1は、DNNを使用して被写体を認識する場合に、処理量が増すが、高感度画像、中感度画像、低感度画像、IR画像の画像データから高精度に被写体を認識することができる。
また、認識部14は、撮像部10から入力される画像データから被写体を認識する。これにより、イメージセンサ1は、DNNを使用して被写体を認識する場合に、処理量が増すが、信号処理を行わない分、イメージセンサ1全体としての処理量が大幅に低減することができる。
また、赤外光を受光する撮像画素は、ToF(Time of Flight)センサである。これにより、イメージセンサ1は、被写体の認識に加えて、被写体までの距離を測定することができる。
また、画像認識方法は、可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成し、画像データのそれぞれから被写体を認識する。かかる画像認識方法によれば、アーチファクトの影響を排除することで、被写体の認識精度を向上させることができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成する撮像部と、
前記画像データのそれぞれから被写体を認識する認識部と
を有する画像認識装置。
(2)
前記撮像部は、
受光面積が同一であり露光時間が異なる複数の前記撮像画素と、赤外光を受光する撮像画素とが2次元に配列された画素アレイ
を有する前記(1)に記載の画像認識装置。
(3)
前記画素アレイは、
前記可視光を受光する長時間露光撮像画素、中時間露光撮像画素、および短時間露光撮像画素
を有する前記(2)に記載の画像認識装置。
(4)
前記画素アレイは、
各画素が露光時間の異なる2個の光電変換素子によって構成される
前記(2)に記載の画像認識装置。
(5)
前記画素アレイは、
各画素が2個の撮像素子によって構成され、
各前記撮像素子は、
露光時間の異なる2個の光電変換素子を備える。
前記(2)に記載の画像認識装置。
(6)
前記認識部は、
前記被写体を認識した場合に、前記被写体の認識結果および前記画像データを後段の装置へ出力し、前記被写体を認識しない場合に、その旨を示す情報を後段の装置へ出力する
前記(1)〜(5)のいずれか一つに記載の画像認識装置。
(7)
前記認識部は、
バッテリの残量が所定残量以上である場合に、前記被写体の認識結果および前記画像データを後段の装置へ出力し、前記所定残量未満の場合に、前記後段の装置へ前記画像データを出力することなく前記被写体の認識結果を出力する
前記(6)に記載の画像認識装置。
(8)
前記認識部は、
デモザイク処理が実行された前記画像データから前記被写体を認識する
前記(1)〜(7)のいずれか一つに記載の画像認識装置。
(9)
前記認識部は、
デモザイク処理が実行されない前記画像データから前記被写体を認識する
前記(1)〜(8)のいずれか一つに記載の画像認識装置。
(10)
前記認識部は、
前記撮像部から入力される前記画像データから前記被写体を認識する
前記(1)〜(8)のいずれか一つに記載の画像認識装置。
(11)
前記赤外光を受光する撮像画素は、
ToF(Time of Flight)センサである
前記(1)〜(10)のいずれか一つに記載の画像認識装置。
(12)
可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成し、
前記画像データのそれぞれから被写体を認識する
画像認識方法。
100 画像認識システム
1 イメージセンサ
10 撮像部
A1、A2、A3、A4 画素アレイ
12 A/D変換部
13 信号処理部
14 認識部
15 データ送信判断部
16 SEL
17 送信部
2 AP
21 受信部
22 認証部
23 認証用データ記憶部
31 物体認識部
32 物体認識用データ記憶部

Claims (12)

  1. 可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成する撮像部と、
    前記画像データのそれぞれから被写体を認識する認識部と
    を有する画像認識装置。
  2. 前記撮像部は、
    受光面積が同一であり露光時間が異なる複数の前記撮像画素と、赤外光を受光する撮像画素とが2次元に配列された画素アレイ
    を有する請求項1に記載の画像認識装置。
  3. 前記画素アレイは、
    前記可視光を受光する長時間露光撮像画素、中時間露光撮像画素、および短時間露光撮像画素
    を有する請求項2に記載の画像認識装置。
  4. 前記画素アレイは、
    各画素が露光時間の異なる2個の撮像素子によって構成される
    請求項2に記載の画像認識装置。
  5. 前記画素アレイは、
    各画素が2個の撮像素子によって構成され、
    各前記撮像素子は、
    露光時間の異なる2個の光電変換素子を備える
    請求項2に記載の画像認識装置。
  6. 前記認識部は、
    前記被写体を認識した場合に、前記被写体の認識結果および前記画像データを後段の装置へ出力し、前記被写体を認識しない場合に、その旨を示す情報を後段の装置へ出力する
    請求項1に記載の画像認識装置。
  7. 前記認識部は、
    バッテリの残量が所定残量以上である場合に、前記被写体の認識結果および前記画像データを後段の装置へ出力し、前記所定残量未満の場合に、前記後段の装置へ前記画像データを出力することなく前記被写体の認識結果を出力する
    請求項6に記載の画像認識装置。
  8. 前記認識部は、
    デモザイク処理が実行された前記画像データから前記被写体を認識する
    請求項1に記載の画像認識装置。
  9. 前記認識部は、
    デモザイク処理が実行されない前記画像データから前記被写体を認識する
    請求項1に記載の画像認識装置。
  10. 前記認識部は、
    前記撮像部から入力される前記画像データから前記被写体を認識する
    請求項1に記載の画像認識装置。
  11. 前記赤外光を受光する撮像画素は、
    ToF(Time of Flight)センサである
    請求項1に記載の画像認識装置。
  12. 可視光を受光する撮像画素と、赤外光を受光する撮像画素とを使用し、1フレーム期間に複数の画像を同一露光タイミングで撮像して画像データを生成し、
    前記画像データのそれぞれから被写体を認識する
    画像認識方法。
JP2019101728A 2019-05-30 2019-05-30 画像認識装置および画像認識方法 Pending JP2020198470A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019101728A JP2020198470A (ja) 2019-05-30 2019-05-30 画像認識装置および画像認識方法
CN202080038430.6A CN113875217A (zh) 2019-05-30 2020-05-18 图像识别装置和图像识别方法
US17/603,138 US20220201183A1 (en) 2019-05-30 2020-05-18 Image recognition device and image recognition method
KR1020217037346A KR20220016056A (ko) 2019-05-30 2020-05-18 화상 인식 장치 및 화상 인식 방법
DE112020002567.5T DE112020002567T5 (de) 2019-05-30 2020-05-18 Bilderkennungsvorrichtung und bilderkennungsverfahren
PCT/JP2020/019587 WO2020241336A1 (ja) 2019-05-30 2020-05-18 画像認識装置および画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101728A JP2020198470A (ja) 2019-05-30 2019-05-30 画像認識装置および画像認識方法

Publications (1)

Publication Number Publication Date
JP2020198470A true JP2020198470A (ja) 2020-12-10

Family

ID=73552920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101728A Pending JP2020198470A (ja) 2019-05-30 2019-05-30 画像認識装置および画像認識方法

Country Status (6)

Country Link
US (1) US20220201183A1 (ja)
JP (1) JP2020198470A (ja)
KR (1) KR20220016056A (ja)
CN (1) CN113875217A (ja)
DE (1) DE112020002567T5 (ja)
WO (1) WO2020241336A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114196A1 (en) 2020-11-30 2022-06-02 Nihon Kohden Corporation Porous body for capturing cancer cells
WO2023140026A1 (ja) * 2022-01-18 2023-07-27 ソニーセミコンダクタソリューションズ株式会社 情報処理装置
JP7444958B1 (ja) 2022-12-12 2024-03-06 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351889B2 (ja) * 2021-12-02 2023-09-27 財団法人車輌研究測試中心 車室内監視・状況理解感知方法及びそのシステム
WO2023166859A1 (ja) * 2022-03-01 2023-09-07 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、情報処理システム及びファクトリーオートメーションシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285198A (ja) * 1999-03-31 2000-10-13 Omron Corp 画像認識システムおよび情報採取システム
US7065645B2 (en) * 2003-01-20 2006-06-20 Mordechai Teicher System, method, and apparatus for visual authentication
JP5436281B2 (ja) * 2010-03-16 2014-03-05 富士フイルム株式会社 放射線撮影システム、コンソール、放射線撮影用カセッテ、及びプログラム
JP2012105225A (ja) * 2010-11-12 2012-05-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2012226513A (ja) * 2011-04-19 2012-11-15 Honda Elesys Co Ltd 検知装置、及び検知方法
JP2014103643A (ja) 2012-11-22 2014-06-05 Canon Inc 撮像装置及び被写体認識方法
KR102086509B1 (ko) * 2012-11-23 2020-03-09 엘지전자 주식회사 3차원 영상 획득 방법 및 장치
JP2015041890A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 制御装置、制御方法、および電子機器
KR20150118213A (ko) * 2014-04-11 2015-10-22 에스케이하이닉스 주식회사 이미지 센싱 장치
JP6418785B2 (ja) * 2014-05-21 2018-11-07 キヤノン株式会社 撮像素子、その制御方法、および制御プログラム、並びに信号処理装置
JP2016033694A (ja) * 2014-07-30 2016-03-10 東芝テック株式会社 物体認識装置及び物体認識プログラム
US10033947B2 (en) * 2015-11-04 2018-07-24 Semiconductor Components Industries, Llc Multi-port image pixels
JP2018092610A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US20180164156A1 (en) * 2016-12-12 2018-06-14 Microsoft Technology Licensing, Llc Hybrid Sensor with Enhanced Infrared Detection Capabilities
US10916036B2 (en) * 2018-12-28 2021-02-09 Intel Corporation Method and system of generating multi-exposure camera statistics for image processing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114196A1 (en) 2020-11-30 2022-06-02 Nihon Kohden Corporation Porous body for capturing cancer cells
WO2023140026A1 (ja) * 2022-01-18 2023-07-27 ソニーセミコンダクタソリューションズ株式会社 情報処理装置
JP7444958B1 (ja) 2022-12-12 2024-03-06 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Also Published As

Publication number Publication date
CN113875217A (zh) 2021-12-31
DE112020002567T5 (de) 2022-04-21
KR20220016056A (ko) 2022-02-08
WO2020241336A1 (ja) 2020-12-03
US20220201183A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP2020198470A (ja) 画像認識装置および画像認識方法
CN105611124B (zh) 图像传感器、成像方法、成像装置及终端
TWI612371B (zh) 影像感測器及影像擷取程序
JP2014206564A5 (ja)
JP2020188310A (ja) 画像認識装置および画像認識方法
JP2007082026A (ja) 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
US20120154596A1 (en) Reducing noise in a color image
JP2020187409A (ja) 画像認識装置、固体撮像装置、および画像認識方法
US20100277629A1 (en) Photo detecting device and image pickup device and method thereon
US20180278824A1 (en) Systems and methods for regionally controlling exposure time in high dynamic range imaging
CN110493506A (zh) 一种图像处理方法和系统
JP4385284B2 (ja) 撮像装置及び撮像方法
CN107534761A (zh) 成像装置、成像方法、程序和图像处理装置
US9489750B2 (en) Exposure metering based on background pixels
WO2017104411A1 (ja) 撮像素子、画像処理装置および方法、並びにプログラム
WO2017086155A1 (ja) 撮像装置、撮像方法、およびプログラム
CN105453133A (zh) 图像处理装置和方法、眼底图像处理装置、图像拍摄方法、及眼底图像拍摄装置和方法
US9894255B2 (en) Method and system for depth selective segmentation of object
US9282256B1 (en) System and method for HDR imaging
JP6348254B2 (ja) 撮像装置
CN108886571A (zh) 具有改善的自动对焦性能的成像设备
JP5199736B2 (ja) 画像撮像装置
CN105850112A (zh) 摄像控制装置
JP5228717B2 (ja) 画像入力装置
JP2010041510A5 (ja)