JP2020162016A - 状態検出装置、状態検出システム及び状態検出方法 - Google Patents

状態検出装置、状態検出システム及び状態検出方法 Download PDF

Info

Publication number
JP2020162016A
JP2020162016A JP2019060217A JP2019060217A JP2020162016A JP 2020162016 A JP2020162016 A JP 2020162016A JP 2019060217 A JP2019060217 A JP 2019060217A JP 2019060217 A JP2019060217 A JP 2019060217A JP 2020162016 A JP2020162016 A JP 2020162016A
Authority
JP
Japan
Prior art keywords
unit
driver
state detection
state
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019060217A
Other languages
English (en)
Inventor
慶 中川
Kei Nakagawa
慶 中川
伸 北野
Shin Kitano
伸 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Semiconductor Solutions Corp
Original Assignee
Sony Corp
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Semiconductor Solutions Corp filed Critical Sony Corp
Priority to JP2019060217A priority Critical patent/JP2020162016A/ja
Priority to US17/593,376 priority patent/US20220161654A1/en
Priority to PCT/JP2020/010190 priority patent/WO2020195770A1/ja
Priority to CN202080021923.9A priority patent/CN113647087B/zh
Publication of JP2020162016A publication Critical patent/JP2020162016A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/11Passenger cars; Automobiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Abstract

【課題】より迅速に運転者の状態を検出する。【解決手段】実施形態に係る状態検出装置は、行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素のイベントの発生を検出する第1固体撮像装置と、前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部とを備える。【選択図】図1

Description

本開示は、状態検出装置、状態検出システム及び状態検出方法に関する。
従来、運転者を撮像した画像から運転者が居眠りをしているか否かを判定し、居眠りしている場合には、運転者へ警報を発して居眠り運転を防止する居眠り運転防止装置が開発されている。
特開平10−86696号公報
一般的な居眠り運転防止装置では、カメラから所定のフレームレートで読み出された画像データを解析することで、運転者が居眠りをしているか否かが判定される。そのため、運転者の状態を検出するために必要となるデータ処理量が多く、運転者が居眠りをしているか否かを迅速に判断することが困難であった。
そこで本開示では、より迅速に運転者の状態を検出することが可能な状態検出装置、状態検出システム及び状態検出方法を提案する。
上記の課題を解決するために、本開示に係る一形態の状態検出装置は、行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素のイベントの発生を検出する第1固体撮像装置と、前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部とを備える。
第1の実施形態に係る状態検出装置(システム)の概略構成例を示すブロック図である。 第1の実施形態に係るDVSの機能構成例を示すブロック図である。 第1の実施形態に係る単位画素の概略構成例を示す回路図である。 第1の実施形態に係るアドレスイベント検出部の概略構成例を示すブロック図である。 第1の実施形態に係る電流電圧変換部の他の一例を示す回路図である。 第1の実施形態に係る減算器及び量子化器の概略構成例を示す回路図である。 第1の実施形態に係る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 第1の実施形態に係る状態検出装置(システム)の他の概略構成例を示すブロック図である。 第1の実施形態に係る撮像部の車両に対する設置位置の例を示す図である。 、第1の実施形態に係る運転者状態検出部の車両に対する設置位置の例を示す図である。 第1の実施形態に係る運転者状態検出部の画角を説明するための図である。 第1の実施形態に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。 まばたき時のまぶたの動きを示す図である。 覚醒度とまぶたの状態(開き量)との関係を示す図である。 運転者の目線が電子ミラーに向いている場合を示す図である。 運転者の目線が電子ミラーに向いていない場合を示す図である。 第2の実施形態に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。 第2の実施形態の変形例に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。
以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
1.1 状態検出装置(又はシステム)の構成例
1.2 DVSの構成例
1.3 単位画素の構成例
1.4 アドレスイベント検出部の構成例
1.4.1 電流電圧変換部の構成例
1.4.2 減算器及び量子化器の構成例
1.5 移動体への応用例
1.6 撮像部の配置例
1.7 運転者状態検出部(DVS)の配置例
1.8 状態検出動作例
1.9 作用・効果
2.第2の実施形態
2.1 状態検出動作例
2.2 作用・効果
2.3 変形例
1.第1の実施形態
まず、第1の実施形態について、図面を参照して詳細に説明する。
1.1 状態検出装置(又はシステム)の構成例
図1は、第1の実施形態に係る状態検出装置(又は状態検出システム。以下、状態検出装置という)の概略構成例を示すブロック図である。図1に示すように、状態検出装置1は、例えば、撮像レンズ11と、DVS(Dynamic Vision Sensor)(第1固体撮像装置)200と、動き検出部12と、撮像レンズ13と、イメージセンサ(第2固体撮像装置)14と、物体検出部15と、動きベクトル推定部16と、行動パターン決定部17と、記憶部18と、インタフェース(I/F)部19とを備える。
DVS200は、運転者の状態を検出するためのセンサであって、受光量が閾値を超えたことをアドレスイベントとしてリアルタイムに検出する検出回路を画素毎に設けた非同期型のイメージセンサである。
一般的なDVSには、単位画素ごとにアドレスイベントの発生の有無を検出し、アドレスイベントの発生が検出された場合、このアドレスイベントが発生した単位画素から画素信号を読み出すという、いわゆるイベントドリブン型の駆動方式が採用されている。
また、一般的なDVSでは、アドレスイベントの発生が検出された単位画素に対して読出し動作が実行されるため、全ての単位画素に対して読出し動作が実行される同期型のイメージセンサよりも非常に高速な読出しが可能であり、且つ、1フレーム分として読み出されるデータ量も小さいという特徴を備える。
そのため、運転者の状態を検出するためのセンサにDVS200を用いることで、より迅速に運転者の状態を検出することが可能となる。状態検出時のデータ量を削減することで、消費電力を低減することも可能となる。
なお、本説明における単位画素とは、1つの光電変換素子(受光素子ともいう)を含んで構成された画素の最小単位であり、例えば、イメージセンサから読み出した画像データにおける各ドットに対応するものである。また、アドレスイベントとは、二次元格子状に配列する複数の単位画素それぞれに割り当てられたアドレスごとに発生するイベントであり、例えば、光電変換素子で発生した電荷に基づく電流(以下、光電流という)の電流値又はその変化量がある一定の閾値を超えたことなどである。
本実施形態において、DVS200は、入射光量に基づいてアドレスイベントの発生を検出し、アドレスイベントの発生が検出された単位画素を特定するためのアドレス情報をイベント検出データとして生成する。このイベント検出データには、アドレスイベントの発生が検出されたタイミングを示すタイムスタンプなどの時間情報が含まれていてもよい。また、生成されたイベント検出データは、動き検出部12及び物体検出部15にそれぞれ入力される。
一方、イメージセンサ14は、例えば、CCD(Charge Coupled Device)型のイメージセンサやCMOS(Complementary Metal-Oxide-Semiconductor)型のイメージセンサなど、画像データを取得することが可能な種々のイメージセンサであってよい。イメージセンサ14で取得された画像データは、動き検出部12及び物体検出部15にそれぞれ入力される。
なお、DVS200とイメージセンサ14とは、例えば、実質的に同じ画角を撮像するように、同一方向に向けて近接して配置されてもよい。
撮像レンズ11は、入射光を集光してその像をDVS200の受光面に結像する光学系の一例である。受光面とは、DVS200における光電変換素子が配列する面であってよい。
撮像レンズ13は、撮像レンズ11と同様に、入射光を集光してその像をイメージセンサ14の受光面に結像する光学系の一例である。受光面とは、イメージセンサ14における光電変換素子が配列する面であってよい。
動き検出部12は、例えば、DVS200から入力されたイベント検出データに基づいて、DVS200の画角内に存在する物体の動きを検出する。例えば、動き検出部12は、所定の期間内に入力されたイベント検出データに基づいて1つのフレームデータを作成し、作成したフレームデータから、フレーム内の領域の動きを検出する。その際、動き検出部12は、イメージセンサ14から入力された画像データを用いて、検出された動きが物体の動きであるか又は誤検出であるか等を確認してもよい。動き検出の結果は、例えば、物体検出部15及び動きベクトル推定部16にそれぞれ入力される。なお、動き検出部12がイベント検出データからフレームデータを生成する周期は、イメージセンサ14が画像データを取得する周期(フレームレート)と同じか又はそれよりも短い周期であってよい。
物体検出部15は、例えば、DVS200から入力されたイベント検出データに基づいて、動き検出部12で動きが検出された物体を検出する。例えば、物体検出部15は、所定の期間内に入力されたイベント検出データに基づいて1つのフレームデータを作成し、作成したフレームデータから、フレーム内の物体を検出する。その際、物体検出部15は、DVS200から入力されたイベント検出データと、イメージセンサ14から入力された画像データとを組み合わせて、物体を検出してもよい。物体検出の結果は、例えば、動きベクトル推定部16及び行動パターン決定部17にそれぞれ入力される。なお、物体検出部15がイベント検出データからフレームデータを生成する周期は、例えば、動き検出部12がイベント検出データからフレームデータを生成する周期と同じであってもよいし、異なっていてもよい。例えば、物体検出部15は、イメージセンサ14が画像データを取得するフレームレートと同じ周期でフレームデータを生成してもよい。
動きベクトル推定部16は、例えば、物体検出部15で検出された物体の、動き検出部12で検出された動きに基づいて、当該物体の動きベクトルを推定する。物体の動きベクトルの推定には、フレーム間の領域の移動量から移動ベクトルを推定する一般的な手法が用いられてもよい。以下では、説明の簡略化のため、「物体の動きベクトルを推定する」ことを、「物体の動きを検出する」という。推定された動きベクトルは、例えば、行動パターン決定部17に入力される。
行動パターン決定部17は、例えば、動きベクトル推定部16で推定された物体の動きに基づいて、当該状態検出システム1を搭載する車両等の装置の行動パターンを決定する。
記憶部18は、行動パターン決定部17が行動パターンを決定する上で必要となる各種プログラムやデータを記憶する。
I/F部19は、例えば、バス等を介して外部との間でデータの送受信を行なうためのインタフェースである。
以上の構成において、動き検出部12、物体検出部15及び動きベクトル推定部16は、運転者等、人や物体の状態を検出する状態検出部として機能する。
動き検出部12による動き検出、物体検出部15による物体検出、動きベクトル推定部16による動きベクトルの推定、及び、行動パターン決定部17による行動パターンの決定には、予めメモリ等に保存されている学習済みモデルを使用する機械学習が用いられてもよい。ただし、これに限定されず、例えば、物体検出部15による物体検出は、イベント検出データや画像データから抽出された特徴点と予めメモリ等に保存された特徴点とのマッチングから物体を特定するパターンマッチング等の技術が用いられてもよい。
1.2 DVSの構成例
つづいて、DVS200の構成例について、図面を参照して詳細に説明する。図2は、第1の実施形態に係るDVSの機能構成例を示すブロック図である。図2に示すように、DVS200は、駆動回路211と、信号処理部212と、アービタ213と、画素アレイ部300とを備える。
画素アレイ部300には、複数の単位画素が二次元格子状に配列される。単位画素とは、後述において詳細に説明するが、例えば、フォトダイオードなどの光電変換素子と、この光電変換素子で発生した電荷による光電流の電流値又はその変化量が所定の閾値を超えたか否かに基づき、アドレスイベントの発生の有無を検出する画素回路(本実施形態では、後述するアドレスイベント検出部400に相当)とから構成される。ここで、画素回路は、複数の光電変換素子で共有され得る。その場合、各単位画素は、1つの光電変換素子と、共有される画素回路とを含んで構成される。
画素アレイ部300の複数の単位画素は、それぞれが所定数の単位画素からなる複数の画素ブロックにグループ化されていてもよい。以下、水平方向に配列する単位画素又は画素ブロックの集合を「行」と称し、行に垂直な方向に配列された単位画素又は画素ブロックの集合を「列」と称する。
各単位画素は、画素回路においてアドレスイベントの発生が検出されると、当該単位画素から信号を読み出すことのリクエストを、アービタ213に出力する。
アービタ213は、1つ以上の単位画素からのリクエストを調停し、この調停結果に基づいて、リクエストを発行した単位画素に所定の応答を送信する。この応答を受け取った単位画素は、アドレスイベントの発生を示す検出信号を駆動回路211及び信号処理部212に出力する。
駆動回路211は、検出信号を出力した単位画素を順に駆動することで、アドレスイベントの発生が検出された単位画素から信号処理部212へ、例えば、受光量に応じた信号を出力させる。なお、DVS200には、後述する光電変換素子333から読み出された信号をその電荷量に応じたデジタル値の信号に変換するためのアナログ・デジタル変換器が、例えば、1つ又は複数の単位画素ごと若しくは列ごとに設けられていてもよい。
信号処理部212は、単位画素から入力された信号に対して所定の信号処理を実行し、この信号処理の結果を、イベント検出データとして、信号線209を介してデータ処理部120に供給する。なお、イベント検出データには、上述したように、アドレスイベントの発生が検出された単位画素のアドレス情報と、アドレスイベントが発生したタイミングを示すタイムスタンプ等の時間情報とが含まれ得る。
1.3 単位画素の構成例
つづいて、単位画素310の構成例について説明する。図3は、第1の実施形態に係る単位画素の概略構成例を示す回路図である。図3に示すように、単位画素310は、例えば、受光部330と、アドレスイベント検出部400とを備える。なお、図3におけるロジック回路210は、例えば、図2における駆動回路211と、信号処理部212と、アービタ213とからなるロジック回路であってよい。
受光部330は、例えば、フォトダイオードなどの光電変換素子333を備え、その出力は、アドレスイベント検出部400に接続される。
アドレスイベント検出部400は、例えば、電流電圧変換部410と、減算器430とを備える。ただし、アドレスイベント検出部400は、その他にも、バッファや量子化器や転送部を備える。アドレスイベント検出部400の詳細については、後述において図5等を用いて説明する。
このような構成において、受光部330の光電変換素子333は、入射光を光電変換して電荷を発生させる。光電変換素子333で発生した電荷は、その電荷量に応じた電流値の光電流として、アドレスイベント検出部400に入力される。
1.4 アドレスイベント検出部の構成例
図4は、第1の実施形態に係るアドレスイベント検出部の概略構成例を示すブロック図である。図4に示すように、アドレスイベント検出部400は、図3にも示した電流電圧変換部410、減算器430と及び量子化器440に加え、バッファ420と、転送部450とを備える。
電流電圧変換部410は、受光部330からの光電流を、その対数の電圧信号に変換し、これにより生成された電圧信号をバッファ420に出力する。
バッファ420は、電流電圧変換部410からの電圧信号を補正し、補正後の電圧信号を減算器430に出力する。
減算器430は、駆動回路211からの行駆動信号に従ってバッファ420からの電圧信号の電圧レベルを低下させ、低下後の電圧信号を量子化器440に出力する。
量子化器440は、減算器430からの電圧信号をデジタル信号に量子化し、これにより生成されたデジタル信号を検出信号として転送部450に出力する。
転送部450は、量子化器440からの検出信号を信号処理部212等に転送する。この転送部450は、例えば、アドレスイベントの発生が検出された際に、転送部450から駆動回路211及び信号処理部212へのアドレスイベントの検出信号の送信を要求するリクエストをアービタ213に出力する。そして、転送部450は、リクエストに対する応答をアービタ213から受け取ると、検出信号を駆動回路211及び信号処理部212に出力する。
1.4.1 電流電圧変換部の構成例
図4に示す構成における電流電圧変換部410は、例えば、図3に示すように、LGトランジスタ411と、増幅トランジスタ412と、定電流回路415とを備えた、所謂ソースフォロア型の電流電圧変換部であってよい。ただし、これに限定されず、例えば、図5に例示するような、2つのLGトランジスタ411及び413と、2つの増幅トランジスタ412及び414と、定電流回路415とを備えた、所謂ゲインブースト型の電流電圧変換器であってもよい。
図3に示すように、LGトランジスタ411のソース及び増幅トランジスタ412のゲートは、例えば、受光部330の光電変換素子333におけるカソードに接続される。LGトランジスタ411のドレインは、例えば、電源端子VDDに接続される。
また、例えば、増幅トランジスタ412のソースは接地され、ドレインは定電流回路415を介して電源端子VDDに接続される。定電流回路415は、例えば、P型のMOS(Metal-Oxide-Semiconductor)トランジスタなどの負荷MOSトランジスタで構成されてもよい。
一方、ゲインブースト型の場合、図5に示すように、LGトランジスタ411のソース及び増幅トランジスタ412のゲートは、例えば、受光部330の光電変換素子333におけるカソードに接続される。また、LGトランジスタ411のドレインは、例えば、LGトランジスタ413のソース及び増幅トランジスタ412のゲートに接続される。LGトランジスタ413のドレインは、例えば、電源端子VDDに接続される。
また、例えば、増幅トランジスタ414のソースはLGトランジスタ411のゲート及び増幅トランジスタ412のドレインに接続される。増幅トランジスタ414のドレインは、例えば、定電流回路415を介して電源端子VDDに接続される。
図3又は図5に示すような接続関係とすることで、ループ状のソースフォロア回路が構成される。これにより、受光部330からの光電流が、その電荷量に応じた対数値の電圧信号に変換される。なお、LGトランジスタ411及び413と、増幅トランジスタ412及び414とは、それぞれ例えばNMOSトランジスタで構成されてよい。
1.4.2 減算器及び量子化器の構成例
図6は、第1の実施形態に係る減算器及び量子化器の概略構成例を示す回路図である。図6に示すように、減算器430は、コンデンサ431及び433と、インバータ432と、スイッチ434とを備える。また、量子化器440は、コンパレータ441を備える。
コンデンサ431の一端は、バッファ420の出力端子に接続され、他端は、インバータ432の入力端子に接続される。コンデンサ433は、インバータ432に並列に接続される。スイッチ434は、コンデンサ433の両端を接続する経路を行駆動信号に従って開閉する。
インバータ432は、コンデンサ431を介して入力された電圧信号を反転する。このインバータ432は反転した信号をコンパレータ441の非反転入力端子(+)に出力する。
スイッチ434をオンした際、コンデンサ431のバッファ420側には、電圧信号Vinitが入力される。また、その逆側は仮想接地端子となる。この仮想接地端子の電位を便宜上、ゼロとする。このとき、コンデンサ431に蓄積されている電位Qinitは、コンデンサ431の容量をC1とすると、次の式(1)により表される。一方、コンデンサ433の両端は、短絡されているため、その蓄積電荷はゼロとなる。
Qinit=C1×Vinit (1)
次に、スイッチ434がオフされて、コンデンサ431のバッファ420側の電圧が変化してVafterになった場合を考えると、コンデンサ431に蓄積される電荷Qafterは、次の式(2)により表される。
Qafter=C1×Vafter (2)
一方、コンデンサ433に蓄積される電荷Q2は、出力電圧をVoutとすると、次の式(3)により表される。
Q2=−C2×Vout (3)
このとき、コンデンサ431及び433の総電荷量は変化しないため、次の式(4)が成立する。
Qinit=Qafter+Q2 (4)
式(4)に式(1)乃至式(3)を代入して変形すると、次の式(5)が得られる。
Vout=−(C1/C2)×(Vafter−Vinit) (5)
式(5)は、電圧信号の減算動作を表し、減算結果の利得はC1/C2となる。通常、利得を最大化することが望まれるため、C1を大きく、C2を小さく設計することが好ましい。一方、C2が小さすぎると、kTCノイズが増大し、ノイズ特性が悪化するおそれがあるため、C2の容量削減は、ノイズを許容することができる範囲に制限される。また、単位画素ごとに減算器430を含むアドレスイベント検出部400が搭載されるため、容量C1やC2には、面積上の制約がある。これらを考慮して、容量C1及びC2の値が決定される。
コンパレータ441は、減算器430からの電圧信号と、反転入力端子(−)に印加された所定の閾値電圧Vthとを比較する。コンパレータ441は、比較結果を示す信号を検出信号として転送部450に出力する。
また、上述のアドレスイベント検出部400全体のゲインAは、電流電圧変換部410の変換ゲインをCGlogとし、バッファ420のゲインを‘1’とすると、次の式(6)により表される。
式(6)において、iphoto_nは、n番目の単位画素の光電流であり、その単位は、例えばアンペア(A)である。Nは、画素ブロック内の単位画素310の数であり、本実施形態では‘1’である。
1.5 移動体への応用例
上述した状態検出装置1は、様々な製品へ応用することができる。例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載することが可能である。
図7は、第1の実施形態に係る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。図7に示すように、車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図7に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウインカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の情報を取得させるとともに、取得されたデータを受信する。車外情報検出ユニット12030は、受信したデータに基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、電気信号を画像として出力するイメージセンサであってもよいし、測距の情報として出力する測距センサであってもよい。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。本実施形態において、運転者状態検出部12041には、上述したDVS200(又は、DVS200及びイメージセンサ14)が用いられる。その場合、運転者状態検出部12041に接続された車内情報検出ユニット12040及び/又はこれに通信ネットワーク12001を介して接続されたマイクロコンピュータ12051は、状態検出装置1における動き検出部12、物体検出部15、動きベクトル推定部16及び行動パターン決定部17を構成する。
例えば、図8に例示する状態検出装置2のように、車内情報検出ユニット12040及びマイクロコンピュータ12051とは別に状態検出装置1における動き検出部12、物体検出部15及び動きベクトル推定部16を設け、行動パターン決定部17を車内情報検出ユニット12040及び/又はマイクロコンピュータ12051で実現するように構成することも可能である。
若しくは、動き検出部12、物体検出部15、動きベクトル推定部16及び行動パターン決定部17は、車内情報検出ユニット12040及び/又はマイクロコンピュータ12051とは異なる構成であってもよい。
車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図7の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
1.6 撮像部の配置例
図9は、第1の実施形態に係る撮像部の車両に対する設置位置の例を示す図である。図9では、撮像部12031として、撮像部12101、12102、12103、12104及び12105の計5つの撮像部が、車両12100に対して設けられている。
撮像部12101、12102、12103、12104及び12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102及び12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、交通信号機、交通標識又は車線等の検出に用いられる。
また、図9には、撮像部12101乃至12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112及び12113は、それぞれサイドミラーに設けられた撮像部12102及び12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101乃至12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101乃至12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101乃至12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051(図7参照)は、撮像部12101乃至12104から得られた距離情報を基に、撮像範囲12111乃至12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101乃至12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101乃至12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101乃至12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101乃至12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101乃至12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
1.7 運転者状態検出部(DVS)の配置例
図10は、第1の実施形態に係る運転者状態検出部の車両に対する設置位置の例を示す図である。図11は、第1の実施形態に係る運転者状態検出部の画角を説明するための図である。
図10及び図11に示すように、運転者状態検出部12041は、車両12100の内部におけるドライバシート12110と対向する位置であって、運転者Dの少なくとも顔が画角12106内に収まる位置に設けられる。図10及び図11に示す例では、フロントガラス12121の中央上部車内側に設けられたルームミラー12122の上縁であって、運転者Dに対してルームミラー12122が隠れない位置に設けられている。ただし、この位置に限定されず、例えば、ルームミラー12122の下縁又は側縁であって運転者Dに対してルームミラー12122が隠れない位置や、ドライバシート12110の前方上方のフロントガラス12121の車内側であって、運転者Dの車外に対する視界の妨げとならない位置など、種々変更されてよい。
1.8 状態検出動作例
次に、第1の実施形態に係る状態検出装置の動作例を説明する。図12は、第1の実施形態に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。
図12に示すように、本動作では、まず、DVS200から動き検出部12(及び物体検出部15)へイベント検出データが入力される(ステップS101)。その際、イメージセンサ14から動き検出部12(及び物体検出部15)へ画像データも入力されてもよい。なお、DVS200及びイメージセンサ14それぞれは、例えば、その画角内にドライバシート12110に着座した運転者Dの顔が入るように設置される。
これに対し、動き検出部12、物体検出部15及び動きベクトル推定部16は、入力されたイベント検出データ(及び画像データ)から運転者Dの眼球やまぶたを物体として検出し、そして、検出された眼球やまぶたの動きを検出する(ステップS102)。検出された眼球やまぶたの動きに関する情報は、行動パターン決定部17に入力される。
行動パターン決定部17は、入力された眼球やまぶたの動きから、運転者Dの状態を検出し、この検出結果から、運転者Dに居眠りの危険があるか否かを判定する(ステップS103)。例えば、行動パターン決定部17は、まぶたの開き量やまぶたの開閉速度から、運転者Dの覚醒の程度(以下、覚醒度という)を推定し、推定された覚醒度に基づいて、運転者Dに居眠りの危険があるか否かを判定する。
ここで、覚醒度が低い、すなわち眠気が強いときのまぶたの動きと、まばたき時のまぶたの動きとの違いについて説明する。図13は、まばたき時のまぶたの動きを示す図であり、図14は、覚醒度とまぶたの状態(開き量)との関係を示す図である。なお、図13では、実際に撮影された目を模式化した図を上段に示し、その実際の目をDVS200で観測することで得られたイベント検出データによるフレーム画像を下段に示している。
図13に示すように、通常のまばたきでは、上まぶた61と下まぶた62とが素早く開閉する。したがって、このまばたきをDVS200で観測した場合には、上まぶた61と下まぶた62とを含む目全体のフレーム画像が取得される。
これに対し、図14に示すように、まばたきをしていない状態(通常時という)での目の開き量は、その人(例えば、運転者D)の覚醒度に応じて変化する。例えば、覚醒度が高いときの通常時の目の開き量H0は大きく、覚醒度が低くなるにつれて、通常時の目の開き量は小さくなる(H0→H1→H2→H3)。
そこで、ステップS103では、例えば、行動パターン決定部17は、所定時間(例えば、0.5秒)内のまぶたの動きベクトルや目の開き量の平均値等を求め、これらの値に基づいて、運転者Dがまばたきをしたのか覚醒度が低い(眠気が強い)のかを推定して、運転者Dに居眠りの危険があるか否かを判定してもよい。
運転者Dに居眠りの危険がないと判断した場合(ステップS103のNO)、行動パターン決定部17は、ステップS105へ進む。一方、運転者Dに居眠りの危険があると判断した場合(ステップS103のYES)、行動パターン決定部17は、例えば、図7における音声画像出力部12052を駆動することで、オーディオスピーカ12061から運転者Dを覚醒させるためのアラートを発し(ステップS104)、ステップS105へ進む。その際、行動パターン決定部17は、表示部12062に運転者Dを覚醒させるための映像や色等よりなるアラートを表示してもよい。
ステップS105では、行動パターン決定部17は、本動作を終了するか否かを判定し、終了する場合(ステップS105のYES)、本動作を終了する。一方、継続する場合(ステップS105のNO)、行動パターン決定部17は、ステップS101へリターンし、以降の動作を実行する。
1.9 作用・効果
以上のように、本実施形態によれば、運転者の状態を検出するためのセンサにDVS200を用いているため、より迅速に運転者の状態を検出することが可能となる。また、本実施形態では、通常のイメージセンサで取得された画像データではなく、よりデータ量の少ないイベント検出データを用いて運転者の状態を検出しているため、状態検出時の消費電力を低減することも可能となる。
2.第2の実施形態
次に、第2の実施形態について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
近年では、車両の後尾に車両の後方を撮像するイメージセンサを搭載するとともに、ルームミラーの代わりにルームミラー型のモニタ(以下、電子ミラー又は表示部という)を設置し、後尾のイメージセンサで撮像された映像を車内の電子ミラーにリアルタイムに再生する技術が存在する。
ただし、運転者が電子ミラーを見ていないときに電子ミラーに車両後方の映像を再生することは、消費電力の増大を招きかねない。そこで、本実施形態では、図15に例示するように、運転者Dの目線の方向A1が電子ミラー22122を見ている場合には電子ミラー22122をオンし、図16に例示するように、運転者Dの目線の方向A2が電子ミラーを見ていない場合、例えば、運転者Dがフロントガラス12121越しに車両前方を見ている場合には、電子ミラーをオフすることで、消費電力の増大を抑制する。
なお、車両の後尾に車両の後方を撮像するイメージセンサは、例えば、第1の実施形態において図9を用いて説明した撮像部12104であってもよい。
また、本実施形態に係る状態検出装置(又はシステム)の構成例は、例えば、第1の実施形態で例示した状態検出装置1と同様であってよい。
2.1 状態検出動作例
図17は、第2の実施形態に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。
図17に示すように、本動作では、まず、第1の実施形態において図12のステップS101〜S102を用いて説明した動作と同様の動作により、ドライバシート12110に着座した運転者Dの顔の位置や視線の方向を検出する(ステップS201〜S202)。検出された顔の位置や視線の方向に関する情報は、行動パターン決定部17に入力される。
行動パターン決定部17は、入力された顔の位置や視線の方向から、運転者Dの視線の先にルームミラー12122に相当する電子ミラー22122が存在するか否か、すなわち、運転者Dが電子ミラー22122を見ているか又は見ようとしているか否かを判定する(ステップS203)。
運転者Dが電子ミラー22122を見ていない又は見ようともしていない場合(ステップS203のNO)には、行動パターン決定部17は、ステップS209へ進む。一方、運転者Dが電子ミラー22122を見ている又は見ようとしている場合(ステップS203のYES)、行動パターン決定部17は、電子ミラー22122の表示をオンする(ステップS204)。これにより、電子ミラー22122には、車両12100の後尾に設置された撮像部12104で撮像された車両後方の映像が表示される。
このように電子ミラー22122の表示をオンすると、次に、第1の実施形態において図12のステップS101〜S102を用いて説明した動作と同様の動作により、ドライバシート12110に着座した運転者Dの顔の位置や視線の方向を検出する(ステップS205〜S206)。そして、今度は、行動パターン決定部17は、運転者Dが電子ミラー22122から目線を外したか否かを判定する(ステップS207)。なお、ステップS206において検出された顔の位置や視線の方向に関する情報は、行動パターン決定部17に入力される。
運転者Dが電子ミラー22122から目線を外していない場合(ステップS207のNO)、本動作は、ステップS205へリターンして、電子ミラー22122への車両後方の映像の表示を継続する。一方、運転者Dが電子ミラー22122から目線を外した場合(ステップS207のYES)、行動パターン決定部17は、電子ミラー22122の表示をオフし(ステップS208)、ステップS209へ進む。これにより、未使用時の電子ミラー22122による消費電力が低減される。
ステップS209では、行動パターン決定部17は、本動作を終了するか否かを判定し、終了する場合(ステップS209のYES)、本動作を終了する。一方、継続する場合(ステップS209のNO)、行動パターン決定部17は、ステップS201へリターンし、以降の動作を実行する。
以上のような動作により、本実施形態では、運転者Dが電子ミラー22122を見ていない期間の電子ミラー22122による消費電力を低減することが可能となる。
2.2 作用・効果
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
2.3 変形例
また、電子ミラー22122の表示のオン/オフの自動切替えは、運転者Dが積極的に電子ミラー22122を見る場合に限らず、例えば、運転者Dに電子ミラー22122への注意を促す場合、すなわち、運転者Dに車両後方への注意を促す場合にも、実行されてよい。例えば、後続車との車間距離が短く、衝突の危険が存在するような場合であって、運転者Dがその危険に気付いていないような場合には、電子ミラー22122の表示をオフからオンに切り替えることで、運転者Dに電子ミラー22122への注意を促すことが可能である。
図18は、本変形例に係る状態検出装置が実行する状態検出動作の一例を示すフローチャートである。
図18に示すように、本動作では、行動パターン決定部17又はマイクロコンピュータ12051は、例えば、車両12100の後尾に配置された撮像部12104で取得された画像データや測距結果に基づいて、後続車との車間距離や相対速度等を検出する(ステップS221)。そして、行動パターン決定部17又はマイクロコンピュータ12051は、検出した後続車との車間距離や相対速度等から、後続車と衝突する可能性があるか否かを判定する(ステップS222)。なお、後続車と衝突する可能性があるか否かに限られず、後続車との車間距離がある閾値よりも短い又は短くなる可能性が高いか否かや、その他、運転者Dが車両12100の後方へ注意する必要があるか否か等を判定してもよい。
後続車と衝突する可能性等がない場合(ステップS222のNO)、本動作は、ステップS227へ進む。一方、後続車と衝突する可能性等がある場合(ステップS222のYES)、第1の実施形態において図12のステップS101〜S102を用いて説明した動作と同様の動作により、ドライバシート12110に着座した運転者Dの顔の位置や視線の方向を検出する(ステップS223〜S224)。そして、行動パターン決定部17は、運転者Dが電子ミラー22122を見ているか否か、すなわち、後続車と衝突する可能性等に気付いているか否かを判定する(ステップS225)。
運転者Dが電子ミラー22122を見ている場合(ステップS225のYES)、本動作は、ステップS227へ進む。一方、運転者Dが電子ミラー22122を見ていない場合(ステップS225のNO)、行動パターン決定部17は、電子ミラー22122の表示をオンする(ステップS226)。これにより、電子ミラー22122には、車両12100の後尾に設置された撮像部12104で撮像された車両後方の映像が表示される。
このように、電子ミラー22122の表示が自動的にオンされることで、運転者Dに対して、電子ミラー22122への注意が促される。その際、行動パターン決定部17は、例えば、図7における音声画像出力部12052を駆動することで、オーディオスピーカ12061から電子ミラー22122又は後続車への注意を促すアラートを報知してもよいし、表示部12062に電子ミラー22122又は後続車への注意を促すアラートを表示してもよい。
ステップS227では、行動パターン決定部17は、本動作を終了するか否かを判定し、終了する場合(ステップS227のYES)、本動作を終了する。一方、継続する場合(ステップS227のNO)、行動パターン決定部17は、ステップS221へリターンし、以降の動作を実行する。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素ごとのイベントの発生を検出する第1固体撮像装置と、
前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部と、
を備える状態検出装置。
(2)
前記状態検出部は、前記運転者の眼球の動き、まぶたの動き、顔の向き、視線の方向のうち、少なくとも1つを前記運転者の状態として検出する前記(1)に記載の状態検出装置。
(3)
前記状態検出部で検出された前記運転者の状態に基づいて行動パターンを決定する行動パターン決定部をさらに備える前記(1)又は(2)に記載の状態検出装置。
(4)
前記状態検出部は、前記運転者の眼球の動き及びまぶたの動きのうちの少なくとも一方を検出し、
前記行動パターン決定部は、前記眼球の動き及びまぶたの動きのうちの少なくとも一方に基づいて、前記運転者の覚醒の程度を推定し、当該推定された覚醒の程度に基づいて、前記行動パターンを決定する
前記(3)に記載の状態検出装置。
(5)
前記行動パターン決定部は、前記推定された覚醒の程度が低い場合、前記運転者を覚醒させるためのアラートを出力する前記行動パターンを決定する前記(4)に記載の状態検出装置。
(6)
車両の後方を撮像する撮像部と、
前記撮像部で撮像された映像を表示する表示部と、
をさらに備え、
前記状態検出部は、前記運転者の顔の向き及び視線の方向のうちの少なくとも一方を検出し、
前記行動パターン決定部は、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて、前記運転者が前記表示部を見ているか否か又は見ようとしているか否かを判定し、当該判定結果に基づいて、前記行動パターンを決定する
前記(3)に記載の状態検出装置。
(7)
前記行動パターン決定部は、前記運転者が前記表示部を見ている又は見ようとしている場合、前記表示部に前記映像を表示させる行動パターンを決定し、前記運転者が前記表示部を見ていない又は見ようとしていない場合、前記表示部の表示をオフする行動パターンを決定する前記(6)に記載の状態検出装置。
(8)
車両の後方を撮像する撮像部と、
後続車との車間距離及び相対速度のうちの少なくとも一方を検出するセンサと、
前記撮像部で撮像された映像を表示する表示部と、
をさらに備え、
前記状態検出部は、前記運転者の顔の向き及び視線の方向のうちの少なくとも一方を検出し、
前記行動パターン決定部は、前記車間距離及び相対速度のうちの少なくとも一方と、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて、前記行動パターンを決定する
前記(3)に記載の状態検出装置。
(9)
前記行動パターン決定部は、前記車間距離及び相対速度のうちの少なくとも一方に基づいて前記後続車との衝突の危険があるか否かを判定し、前記後続車との衝突の危険がある場合、さらに、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて前記運転者が前記表示部を見ているか否か又は見ようとしているか否かを判定し、前記運転者が前記表示部を見ていない又は見ようとしていない場合、前記表示部に前記映像を表示させる行動パターンを決定する前記(8)に記載の状態検出装置。
(10)
前記運転者の顔を撮像する第2固体撮像装置をさらに備え、
前記状態検出部は、前記第1固体撮像装置で検出された前記イベントの発生と、前記第2固体撮像装置で取得された画像データとに基づいて前記運転者の状態を検出する
前記(1)〜(9)の何れか1項に記載の状態検出装置。
(11)
行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素ごとのイベントの発生を検出する第1固体撮像装置と、
前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部と、
を備える状態検出システム。
(12)
行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素ごとのイベントの発生を検出する固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する
ことを含む状態検出方法。
1、2 状態検出装置(システム)
11、13 撮像レンズ
12 動き検出部
14 イメージセンサ
15 物体検出部
16 動きベクトル推定部
17 行動パターン決定部
18 記憶部
19 I/F部
200 DVS
210 ロジック回路
211 駆動回路
212 信号処理部
213 アービタ
300 画素アレイ部
330 受光部
333 光電変換素子
400 アドレスイベント検出部
410 電流電圧変換部
411、413 LGトランジスタ
412、414 増幅トランジスタ
415 定電流回路
420 バッファ
430 減算器
431、433 コンデンサ
432 インバータ
434 スイッチ
440 量子化器
441 コンパレータ
450 転送部
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031、12101〜12105 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12053 車載ネットワークI/F
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12106 画角
12110 ドライバシート
12111〜12114 撮像範囲
12121 フロントガラス
12122 ルームミラー
22122 電子ミラー
A1、A2 目線の方向
D 運転者

Claims (12)

  1. 行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素のイベントの発生を検出する第1固体撮像装置と、
    前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部と、
    を備える状態検出装置。
  2. 前記状態検出部は、前記運転者の眼球の動き、まぶたの動き、顔の向き、視線の方向のうち、少なくとも1つを前記運転者の状態として検出する請求項1に記載の状態検出装置。
  3. 前記状態検出部で検出された前記運転者の状態に基づいて行動パターンを決定する行動パターン決定部をさらに備える請求項1に記載の状態検出装置。
  4. 前記状態検出部は、前記運転者の眼球の動き及びまぶたの動きのうちの少なくとも一方を検出し、
    前記行動パターン決定部は、前記眼球の動き及びまぶたの動きのうちの少なくとも一方に基づいて、前記運転者の覚醒の程度を推定し、当該推定された覚醒の程度に基づいて、前記行動パターンを決定する
    請求項3に記載の状態検出装置。
  5. 前記行動パターン決定部は、前記推定された覚醒の程度が低い場合、前記運転者を覚醒させるためのアラートを出力する前記行動パターンを決定する請求項4に記載の状態検出装置。
  6. 車両の後方を撮像する撮像部と、
    前記撮像部で撮像された映像を表示する表示部と、
    をさらに備え、
    前記状態検出部は、前記運転者の顔の向き及び視線の方向のうちの少なくとも一方を検出し、
    前記行動パターン決定部は、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて、前記運転者が前記表示部を見ているか否か又は見ようとしているか否かを判定し、当該判定結果に基づいて、前記行動パターンを決定する
    請求項3に記載の状態検出装置。
  7. 前記行動パターン決定部は、前記運転者が前記表示部を見ている又は見ようとしている場合、前記表示部に前記映像を表示させる行動パターンを決定し、前記運転者が前記表示部を見ていない又は見ようとしていない場合、前記表示部の表示をオフする行動パターンを決定する請求項6に記載の状態検出装置。
  8. 車両の後方を撮像する撮像部と、
    後続車との車間距離及び相対速度のうちの少なくとも一方を検出するセンサと、
    前記撮像部で撮像された映像を表示する表示部と、
    をさらに備え、
    前記状態検出部は、前記運転者の顔の向き及び視線の方向のうちの少なくとも一方を検出し、
    前記行動パターン決定部は、前記車間距離及び相対速度のうちの少なくとも一方と、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて、前記行動パターンを決定する
    請求項3に記載の状態検出装置。
  9. 前記行動パターン決定部は、前記車間距離及び相対速度のうちの少なくとも一方に基づいて前記後続車との衝突の危険があるか否かを判定し、前記後続車との衝突の危険がある場合、さらに、前記顔の向き及び視線の方向のうちの少なくとも一方に基づいて前記運転者が前記表示部を見ているか否か又は見ようとしているか否かを判定し、前記運転者が前記表示部を見ていない又は見ようとしていない場合、前記表示部に前記映像を表示させる行動パターンを決定する請求項8に記載の状態検出装置。
  10. 前記運転者の顔を撮像する第2固体撮像装置をさらに備え、
    前記状態検出部は、前記第1固体撮像装置で検出された前記イベントの発生と、前記第2固体撮像装置で取得された画像データとに基づいて前記運転者の状態を検出する
    請求項1に記載の状態検出装置。
  11. 行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素のイベントの発生を検出する第1固体撮像装置と、
    前記第1固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する状態検出部と、
    を備える状態検出システム。
  12. 行列状に配列する複数の画素を備え、前記画素それぞれに入射した光量に応じて前記画素のイベントの発生を検出する固体撮像装置で検出された前記イベントの発生に基づいて運転者の状態を検出する
    ことを含む状態検出方法。
JP2019060217A 2019-03-27 2019-03-27 状態検出装置、状態検出システム及び状態検出方法 Pending JP2020162016A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019060217A JP2020162016A (ja) 2019-03-27 2019-03-27 状態検出装置、状態検出システム及び状態検出方法
US17/593,376 US20220161654A1 (en) 2019-03-27 2020-03-10 State detection device, state detection system, and state detection method
PCT/JP2020/010190 WO2020195770A1 (ja) 2019-03-27 2020-03-10 状態検出装置、状態検出システム及び状態検出方法
CN202080021923.9A CN113647087B (zh) 2019-03-27 2020-03-10 状态检测装置、状态检测系统及状态检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060217A JP2020162016A (ja) 2019-03-27 2019-03-27 状態検出装置、状態検出システム及び状態検出方法

Publications (1)

Publication Number Publication Date
JP2020162016A true JP2020162016A (ja) 2020-10-01

Family

ID=72611401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060217A Pending JP2020162016A (ja) 2019-03-27 2019-03-27 状態検出装置、状態検出システム及び状態検出方法

Country Status (4)

Country Link
US (1) US20220161654A1 (ja)
JP (1) JP2020162016A (ja)
CN (1) CN113647087B (ja)
WO (1) WO2020195770A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153854A1 (ja) * 2021-01-13 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230148154A (ko) * 2021-02-26 2023-10-24 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치
US11651579B2 (en) 2021-08-05 2023-05-16 Omnivision Technologies, Inc. Imaging system for detecting human-object interaction and a method for detecting human-object interaction
CN113746079B (zh) * 2021-11-04 2022-06-14 深圳市爱图仕影像器材有限公司 热插拔电路、控制装置及设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624849B1 (en) * 1997-12-08 2003-09-23 Nikon Corporation Solid-state imaging apparatus for motion detection
US6575902B1 (en) * 1999-01-27 2003-06-10 Compumedics Limited Vigilance monitoring system
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
JP5498183B2 (ja) * 2010-02-03 2014-05-21 富士重工業株式会社 行動検出装置
WO2015024871A1 (en) * 2013-08-19 2015-02-26 Basf Se Optical detector
KR101659027B1 (ko) * 2014-05-15 2016-09-23 엘지전자 주식회사 이동 단말기 및 차량 제어 장치
US9554100B2 (en) * 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
JPWO2017013806A1 (ja) * 2015-07-23 2018-05-10 オリンパス株式会社 固体撮像装置
CN105654753A (zh) * 2016-01-08 2016-06-08 北京乐驾科技有限公司 一种智能车载安全驾驶辅助方法及系统
WO2017149370A1 (en) * 2016-03-01 2017-09-08 Brightway Vision Ltd. Gated imaging apparatus, system and method
CN111510648B (zh) * 2016-05-31 2022-08-16 索尼半导体解决方案公司 传感器和系统
JP6697680B2 (ja) * 2016-08-17 2020-05-27 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
WO2018198691A1 (ja) * 2017-04-25 2018-11-01 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
KR20180124381A (ko) * 2017-05-11 2018-11-21 현대자동차주식회사 운전자의 상태 판단 시스템 및 그 방법
JP6866840B2 (ja) * 2017-12-14 2021-04-28 オムロン株式会社 瞳孔検出装置および検出システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153854A1 (ja) * 2021-01-13 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
CN113647087B (zh) 2024-04-02
US20220161654A1 (en) 2022-05-26
WO2020195770A1 (ja) 2020-10-01
CN113647087A (zh) 2021-11-12

Similar Documents

Publication Publication Date Title
WO2020195770A1 (ja) 状態検出装置、状態検出システム及び状態検出方法
CN113396579B (zh) 事件信号检测传感器和控制方法
WO2019150786A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
CN112640428B (zh) 固态成像装置、信号处理芯片和电子设备
US11297268B2 (en) Solid-state imaging element, imaging apparatus, and method of controlling solid-state imaging element
WO2020195769A1 (ja) 物体検出装置、物体検出システム及び物体検出方法
US20220201204A1 (en) Data processing device, data processing method, and program
EP3968273A1 (en) Image recognition device, solid-state imaging device, and image recognition method
JP2019195135A (ja) 固体撮像素子および撮像装置
US11937001B2 (en) Sensor and control method
JP2019176335A (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2021131831A1 (ja) 固体撮像素子、および、撮像装置
US20220224830A1 (en) Imaging device and imaging method
US11711634B2 (en) Electronic circuit, solid-state image sensor, and method of controlling electronic circuit
WO2022009720A1 (ja) 固体撮像装置、撮像方法および電子機器
JP2022017124A (ja) 撮像装置および撮像方法