JP6264495B1 - 運転者監視装置、運転者監視方法、学習装置及び学習方法 - Google Patents

運転者監視装置、運転者監視方法、学習装置及び学習方法 Download PDF

Info

Publication number
JP6264495B1
JP6264495B1 JP2017130209A JP2017130209A JP6264495B1 JP 6264495 B1 JP6264495 B1 JP 6264495B1 JP 2017130209 A JP2017130209 A JP 2017130209A JP 2017130209 A JP2017130209 A JP 2017130209A JP 6264495 B1 JP6264495 B1 JP 6264495B1
Authority
JP
Japan
Prior art keywords
driver
arm
responsiveness
driving
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017130209A
Other languages
English (en)
Other versions
JP2018152038A (ja
Inventor
初美 青位
初美 青位
航一 木下
航一 木下
相澤 知禎
知禎 相澤
匡史 日向
匡史 日向
智浩 籔内
智浩 籔内
芽衣 上谷
芽衣 上谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to PCT/JP2017/036278 priority Critical patent/WO2018168040A1/ja
Application granted granted Critical
Publication of JP6264495B1 publication Critical patent/JP6264495B1/ja
Publication of JP2018152038A publication Critical patent/JP2018152038A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

【課題】運転者の腕部が運転操作を行える状態にあるか否かに関する指標を得るための技術を提供する。【解決手段】本発明の一側面に係る運転者監視装置は、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得部と、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する即応性推定部と、を備える。【選択図】図4

Description

本発明は、運転者監視装置、運転者監視方法、学習装置及び学習方法に関する。
近年、運転の安全性を高めるために、居眠り、体調の急変等の運転者の状態を監視する技術の開発が進んでいる。また、自動車の自動運転の実現に向けた動きが加速している。自動運転は、システムにより自動車の走行を制御するものであるが、システムに代わって運転者が運転しなければならない場面もあり得ることから、自動運転中であっても、運転者が運転操作を行える状態にあるか否かを監視する必要性があるとされている。この自動運転中に運転者の状態を監視する必要性があることは、国連欧州経済委員会(UN−ECE)の政府間会合(WP29)においても確認されている。この点からも、運転者の状態を監視する技術の開発が進められている。
運転者の状態を推定する技術として、例えば、特許文献1では、まぶたの開閉、視線の動き、又はハンドル角のふらつきから運転者の実集中度を検出する方法が提案されている。この方法では、検出した実集中度と車両の周辺環境情報から算出した要求集中度とを比較することで、要求集中度に対して実集中度が十分であるか否かを判定する。そして、要求集中度に対して実集中度が不十分であると判定した場合には、自動運転の走行速度を低速にする。これにより、特許文献1の方法によれば、クルーズ制御を行っている際の安全性を高めることができる。
また、例えば、特許文献2では、開口行動及び口の周りの筋肉の状態に基づいて、運転者の眠気を判定する方法が提案されている。この方法では、運転者が開口行動を実施していない場合に、弛緩状態である筋肉の数に応じて運転者に生じている眠気のレベルを判定する。したがって、特許文献2の方法によれば、眠気により無意識に生じる現象に基づいて、運転者の眠気のレベルを判定しているため、眠気が生じていることを検出する検出精度を高めることができる。
また、例えば、特許文献3では、運転者のまぶたの動きが生じた後に、顔向き角度の変化が生じたか否かに基づいて、当該運転者の眠気を判定する方法が提案されている。特許文献3の方法によれば、下方視の状態を眠気の高い状態と誤検出する可能性を低減することで、眠気検出の精度を高めることができる。
また、例えば、特許文献4では、運転者の所持する免許証内の顔写真と運転者を撮影した撮影画像とを比較することで、運転者の眠気度及び脇見度を判定する方法が提案されている。特許文献4の方法によれば、免許証内の顔写真を運転者の覚醒時の正面画像として取り扱って、当該顔写真と撮影画像との特徴量を比較することで、運転者の眠気度及び脇見度を判定することができる。
また、例えば、特許文献5では、運転者の視線の状態に基づいて、当該運転者の集中度を判定する方法が提案されている。具体的には、運転者の視線を検出し、検出した視線が注視領域に停留する停留時間を測定する。そして、停留時間が閾値を超えた場合に、運転者の集中度が低下したと判定する。特許文献5の方法によれば、視線に関連する少ない画素値の変化により運転者の集中度を判定することができる。そのため、運転者の集中度の判定を少ない計算量で行うことができる。
また、例えば、特許文献6では、運転者のハンドル把持情報及び視線方向情報に基づいて、運転者が携帯端末を操作しているか否かを判定する方法が提案されている。特許文献6の方法によれば、車両の運転中に運転者が携帯端末を操作していると判定される場合に、当該携帯端末の機能を制限することで、当該運転者が車両を運転する際の安全性を確保することができる。
特開2008−213823号公報 特開2010−122897号公報 特開2011−048531号公報 特開2012−084068号公報 特開2014−191474号公報 特開2014−106573号公報
従来の方法では、運転者の集中度、眠気度、脇見度、又は携帯端末の操作の有無という観点で、解析時点において運転者が運転に適した状態にあるか否かという運転者の状態を推定している。しかしながら、自動運転機能を搭載した車両では、運転者は、自動運転中に様々な行動を取る可能性がある。このような車両では、自動運転から手動運転に切り替える際に、運転者が運転操作を行える準備状態にあるか否か、換言すると、運転者が車両の運転を手動で行える状態にあるか否かを検知することが重要になると想定される。例えば、視線等の情報に基づいて解析時点において運転者が運転に適している状態と従来の方法で判定可能な場合であっても、両手に飲食物を保持している等の腕部の状態によっては、運転者が運転操作を行える状態にないケースがあり得る。従来の方法では、このようなケースにおいて、運転者が運転操作に復帰可能な状態にあるか否かに関する指標を得ることが困難である。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、運転者の腕部が運転操作を行える状態にあるか否かに関する指標を得るための技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る運転者監視装置は、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得部と、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する即応性推定部と、を備える。
当該構成では、機械学習により得られる学習済みの学習器を利用して、運転者の腕部の運転に対する即応性を推定する。具体的には、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する。そして、運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に当該撮影画像を入力することで、運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を取得する。
ここで、「即応性」の程度とは、運転に対する準備状態の程度、換言すると、運転者が車両の運転を手動で行える状態にあるか否かの度合いを示す。より詳細には、「即応性」の程度は、運転者が車両の手動運転に直ちに対応可能か否かの度合いを示す。したがって、当該構成によれば、運転者の腕部が運転操作を行える状態にあるか否かに関する指標を腕部即応性情報として得ることができる。これにより、自動運転モードで車両が走行している際に、運転者の腕部が運転操作に直ちに対応可能かどうかを推定する精度を向上させることができる。
なお、「機械学習」とは、データ(学習データ)に潜むパターンをコンピュータにより見つけ出すことであり、「学習器」は、そのような機械学習により所定のパターンを識別する能力を獲得可能な学習モデルにより構築される。この学習器の種類は、撮影画像に基づいて運転者の腕部の運転に対する即応性の程度を推定する能力を学習可能であれば、特に限定されなくてもよい。「学習済み学習器」は、「識別器」又は「分類器」と称されてもよい。
また、撮影装置が「車両の運転席に着いた運転者の腕部を撮影可能に配置される」とは、例えば、少なくとも運転席からハンドル周辺を撮影範囲とするように配置される等、運転操作時に運転者の腕部の少なくとも一部が位置すべき範囲を撮影範囲としてカバーするように撮影装置が配置されることである。そのため、運転者が、撮影装置に対して背を向けている等の状況では、運転者の腕部を撮影装置により捕捉できない可能性があり、このようなケースでは、撮影装置から得られる撮影画像には必ずしも運転者の腕部が写っている必要はない。
上記一側面に係る運転者監視装置は、自動的に運転操作を行う自動運転モードと運転者の手動により運転操作を行う手動運転モードとを選択的に実施可能に構成された前記車両に対して、前記自動運転モードが実施されている際に、前記腕部即応性情報により示される前記運転者の腕部の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える指示を出力する切替指示部を更に備えてもよい。当該構成によれば、運転者の腕部の即応性に応じて自動運転から手動運転に動作を切り替え可能な車両を提供することができる。
上記一側面に係る運転者監視装置において、前記切替指示部は、前記自動運転モードが実施されている際に、前記腕部即応性情報により示される前記運転者の手の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える指示を出力してもよい。当該構成によれば、ハンドル操作を行う運転者の手の即応性に応じて自動運転から手動運転に動作を切り替え可能な車両を提供することができる。
上記一側面に係る運転者監視装置において、前記腕部即応性情報は、前記運転者の腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示すように構成されてもよい。当該構成によれば、運転者の腕部の即応性を段階的に表現することができ、これによって、運転者状態の推定結果の利用性が向上する。
上記一側面に係る運転者監視装置において、前記腕部即応性情報は、前記運転者が手に保持している物体の属性に応じて、前記運転者の腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示してもよい。運転者が手に保持している物体の種類に応じて、運転に対する即応性は相違し得る。例えば、運転者が赤ん坊等を両手で保持している場合には、当該運転者の運転に対する即応性は低い状態にあると想定される。一方、タオル等の直ぐに手から離すことのできる物体を運転者が保持している場合には、当該運転者の運転に対する即応性は高い状態にあると想定される。当該構成によれば、運転者の保持している物体の属性を適切に反映して、運転者の腕部の運転に対する即応性を評価することができる。なお、「属性」は、例えば、物体の種類、大きさ等により示される。
上記一側面に係る運転者監視装置は、前記腕部即応性情報の示す前記運転者の腕部の運転に対する即応性のレベルに応じて、腕部の即応性を高めるように前記運転者に促す警告を段階的に行う警告部を更に備えてもよい。当該構成によれば、運転者の腕部の即応性を段階的に評価し、その状態に適した警告を実施することができる。
上記一側面に係る運転者監視装置は、前記運転者の観測情報を取得する観測情報取得部を更に備えてもよく、前記即応性推定部は、前記観測情報を前記学習器に更に入力してもよい。当該構成によれば、観測情報を更に利用することにより、運転者の腕部の即応性に対する解析精度を高めることができる。なお、観測情報は、運転者から観測可能なあらゆる情報が含まれてもよい。例えば、観測情報には、運転者の顔の挙動に関する顔挙動情報が含まれてもよい。また、例えば、観測情報には、脳波、心拍数、脈拍等の、運転者から測定可能な生体情報が含まれてもよい。また、例えば、観測情報には、運転者の腕部の状態又は動作に関連する情報が含まれてもよい。また、例えば、ステアリングタッチセンサ、ペダルの踏力センサ、座席の圧力センサ等のセンサを車両が備える場合に、観測情報には、これらのセンサから得られる測定結果が含まれてもよい。
上記一側面に係る運転者監視装置において、前記撮影装置は、前記運転者の顔を更に撮影可能に配置されてよく、前記観測情報取得部は、取得した前記撮影画像に対して所定の画像解析を行うことで、前記運転者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する顔挙動情報を含む前記観測情報を取得してもよい。腕部の動作は、顔の動作を伴って生じ得る。当該構成によれば、顔挙動情報を利用して、運転者の腕部の即応性に対する解析精度を高めることができる。
上記一側面に係る運転者監視装置において、前記観測情報取得部は、前記運転者の生体情報を含む前記観測情報を取得してもよい。腕部の動作は、何らかの生体情報の変化を伴って生じ得る。例えば、所定の腕部の動作を行ったときには、脳の所定の部位が反応を示し得る。当該構成によれば、生体情報を利用して、運転者の腕部の即応性に対する解析精度を高めることができる。
また、本発明の一側面に係る運転監視方法は、コンピュータが、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得ステップと、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する推定ステップと、を実行する。当該構成によれば、運転者の腕部が運転操作を行える状態にあるか否かに関する指標を腕部即応性情報として得ることができる。
上記一側面に係る運転監視方法において、前記コンピュータは、自動的に運転操作を行う自動運転モードと運転者の手動により運転操作を行う手動運転モードとを選択的に実施するように前記車両の動作を制御し、前記自動運転モードを実施している際に、前記腕部即応性情報により示される前記運転者の腕部の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替えるように構成されてもよい。当該構成によれば、運転者の腕部の即応性に応じて自動運転から手動運転に動作を切り替え可能な車両を提供することができる。
上記一側面に係る運転監視方法において、前記コンピュータは、前記自動運転モードを実施している際に、前記腕部即応性情報により示される前記運転者の手の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替えるように構成されてもよい。当該構成によれば、運転者の手の即応性に応じて自動運転から手動運転に動作を切り替え可能な車両を提供することができる。
また、本発明の一側面に係る学習装置は、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得する学習データ取得部と、前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行う学習処理部と、を備える。当該構成によれば、上記運転者の腕部の運転に対する即応性の程度を推定するのに利用する学習済みの学習器を構築することができる。
また、本発明の一側面に係る学習方法は、コンピュータが、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得するステップと、前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行うステップと、を実行する。当該構成によれば、上記運転者の腕部の運転に対する即応性の程度を推定するのに利用する学習済みの学習器を構築することができる。
本発明によれば、運転者の腕部が運転操作を行える状態にあるか否かに関する指標を得るための技術を提供することができる。
図1は、本発明が適用される場面の一例を模式的に例示する。 図2は、実施の形態に係る自動運転支援装置のハードウェア構成の一例を模式的に例示する。 図3は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。 図4は、実施の形態に係る自動運転支援装置のソフトウェア構成の一例を模式的に例示する。 図5は、実施の形態に係る腕部即応性情報の一例を模式的に例示する。 図6は、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。 図7は、実施の形態に係る自動運転支援装置の処理手順の一例を例示する。 図8は、実施の形態に係る学習装置の処理手順の一例を例示する。 図9は、変形例に係る腕部即応性情報の一例を模式的に例示する。 図10は、変形例に係る自動運転支援装置のソフトウェア構成の一例を模式的に例示する。 図11は、変形例に係る自動運転支援装置のソフトウェア構成の一例を模式的に例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。しかしながら、本発明の適用対象は、自動運転を実施可能な車両に限定されなくてもよく、自動運転を実施しない一般の車両に本発明が適用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る自動運転支援装置1及び学習装置2の適用場面の一例を模式的に例示する。
図1に示されるとおり、本実施形態に係る自動運転支援装置1は、カメラ31を利用して運転者Dを監視しながら、車両100の自動運転を支援するコンピュータである。本実施形態に係る自動運転支援装置1は、本発明の「運転者監視装置」の一例である。なお、車両100の種類は、実施の形態に応じて適宜選択されてよい。車両100は、例えば、乗用車である。本実施形態に係る車両100は、自動運転を実施可能に構成される。
具体的には、自動運転支援装置1は、車両100の運転席に着いた運転者Dの腕部を撮影可能に配置されたカメラ31から撮影画像を取得する。カメラ31は、本発明の「撮影装置」の一例である。そして、自動運転支援装置1は、運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器(後述するニューラルネットワーク5)に、取得した撮影画像を入力することで、運転者Dの腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する。これにより、自動運転支援装置1は、運転者Dの状態、すなわち、運転者Dの腕部の運転に対する即応性の程度を推定する。なお、「即応性」の程度とは、運転に対する準備状態の程度、換言すると、運転者が車両の運転を手動で行える状態にあるか否かの度合いを示す。より詳細には、「即応性」の程度は、運転者が車両の手動運転に直ちに対応可能か否かの度合いを示す。
一方、本実施形態に係る学習装置2は、自動運転支援装置1で利用する学習器を構築する、すなわち、撮影画像の入力に応じて、運転者Dの腕部の運転に対する即応性の程度を示す腕部即応性情報を出力するように学習器の機械学習を行うコンピュータである。具体的には、学習装置2は、上記撮影画像及び腕部即応性情報の組を学習データとして取得する。これらのうち、撮影画像は入力データとして利用され、腕部即応性情報は教師データとして利用される。すなわち、学習装置2は、撮影画像を入力すると腕部即応性情報に対応する出力値を出力するように学習器(後述するニューラルネットワーク6)を学習させる。これにより、自動運転支援装置1で利用する学習済みの学習器を作成することができる。自動運転支援装置1は、例えば、ネットワークを介して、学習装置2により作成された学習済みの学習器を取得することができる。なお、ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
以上のとおり、本実施形態によれば、学習済みの学習器を利用することで、運転者の腕部が運転操作を行える状態にあるか否かに関する指標を腕部即応性情報として得ることができる。そのため、この腕部即応性情報に基づいて、運転者Dの腕部の状態が運転操作を行える状態にあるか否かという観点で、例えば、車両100の自動運転の動作を制御することができる。なお、カメラ31に対して運転者Dが背を向けている等の状況では、当該運転者Dの腕部をカメラ31により捕捉できない可能性がある。そのため、カメラ31から得られる撮影画像には必ずしも運転者Dの腕部が写っている必要はない。
なお、本実施形態では、運転者Dの腕部の運転に対する即応性の程度を推測するのに、運転者Dの腕部が写り得る撮影画像の他、運転者Dの観測情報が更に用いられる。特に、本実施形態では、撮影画像を画像解析することで得られる顔挙動情報が観測情報として利用される。そのため、本実施形態に係るカメラ31は、運転者Dの顔を更に撮影可能に配置される。
§2 構成例
[ハードウェア構成]
<自動運転支援装置>
次に、図2を用いて、本実施形態に係る自動運転支援装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る自動運転支援装置1のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係る自動運転支援装置1は、制御部11、記憶部12、及び外部インタフェース13が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。制御部11は、例えば、ECU(Electronic Control Unit)により構成される。記憶部12は、例えば、RAM、ROM等で構成され、プログラム121、学習結果データ122等を記憶する。記憶部12は、「メモリ」の一例である。
プログラム121は、自動運転支援装置1に後述する運転者Dの腕部の運転に対する即応性の程度を推定する情報処理(図7)を実行させるための命令を含むプログラムである。学習結果データ122は、学習済みの学習器の設定を行うためのデータである。詳細は後述する。
外部インタフェース13は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、外部インタフェース13は、例えば、CAN(Controller Area Network)を介して、ナビゲーション装置30、カメラ31、生体センサ32、及びスピーカ33に接続される。
ナビゲーション装置30は、車両100の走行時に経路案内を行うコンピュータである。ナビゲーション装置30には、公知のカーナビゲーション装置が用いられてよい。ナビゲーション装置30は、GPS(Global Positioning System)信号に基づいて自車位置を測定し、地図情報及び周辺の建物等に関する周辺情報を利用して、経路案内を行うように構成される。なお、以下では、GPS信号に基づいて測定される自車位置を示す情報を「GPS情報」と称する。
カメラ31は、車両100の運転席に着いた運転者Dの腕部及び顔を撮影可能に配置される。すなわち、カメラ31は、例えば、少なくとも運転席からハンドル周辺を撮影範囲とするように配置される等、運転操作時に運転者Dの腕部の少なくとも一部が位置すべき範囲を撮影範囲としてカバーするように撮影装置が配置される。図1の例では、カメラ31は、運転席の前方上方に配置されている。しかしながら、カメラ31の配置場所は、このような例に限定されなくてもよく、運転席に着いた運転者Dの腕部及び顔を撮影可能であれば、実施の形態に応じて適宜選択されてよい。なお、カメラ31には、一般のデジタルカメラ、ビデオカメラ等が用いられてよい。
生体センサ32は、運転者Dの生体情報を測定するように構成される。測定対象となる生体情報は、特に限定されなくてもよく、例えば、脳波、心拍数等であってよい。生体センサ32は、測定対象となる生体情報を測定可能であれば特に限定されなくてもよく、例えば、公知の脳波センサ、脈拍センサ等が用いられてよい。生体センサ32は、測定対象となる生体情報に応じた運転者Dの身体部位に装着される。
スピーカ33は、音声を出力するように構成される。スピーカ33は、車両100の走行中に運転者Dの腕部の運転に対する即応性が低いと推測される場合に、当該腕部の即応性を高めるように運転者Dに対して警告するのに利用される。詳細は後述する。
なお、外部インタフェース13には、上記以外の外部装置が接続されてよい。例えば、外部インタフェース13には、ネットワークを介してデータ通信を行うための通信モジュールが接続されてもよい。外部インタフェース13に接続する外部装置は、上記の各装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
また、図2の例では、自動運転支援装置1は、1つの外部インタフェース13を備えている。しかしながら、外部インタフェース13は、接続する外部装置毎に設けられてもよい。外部インタフェース13の数は、実施の形態に応じて適宜選択可能である。
なお、自動運転支援装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。記憶部12は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、自動運転支援装置1には、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータが用いられてもよい。
<学習装置>
次に、図3を用いて、本実施形態に係る学習装置2のハードウェア構成の一例を説明する。図3は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
図3に示されるとおり、本実施形態に係る学習装置2は、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。なお、図3では、通信インタフェースを「通信I/F」と記載している。
制御部21は、上記制御部11と同様に、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部22は、制御部21で実行される学習プログラム221、学習器の機械学習に利用する学習データ222、学習プログラム221を実行して作成した学習結果データ122等を記憶する。
学習プログラム221は、後述する機械学習の処理(図8)を学習装置2に実行させ、当該機械学習の結果として学習結果データ122を生成させるためのプログラムである。学習データ222は、運転者の腕部の運転に対する即応性の程度を推定する能力を獲得するように学習器の機械学習を行うためのデータである。詳細は後述する。
通信インタフェース23は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置2は、当該通信インタフェース23を介して、作成した学習結果データ122を外部の装置に配信してもよい。
入力装置24は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置25は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置24及び出力装置25を介して、学習装置2を操作することができる。
ドライブ26は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体92に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ26の種類は、記憶媒体92の種類に応じて適宜選択されてよい。上記学習プログラム221及び学習データ222は、この記憶媒体92に記憶されていてもよい。
記憶媒体92は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置2は、この記憶媒体92から、上記学習プログラム221及び学習データ222を取得してもよい。
ここで、図3では、記憶媒体92の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体92の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)等で構成されてよい。学習装置2は、複数台の情報処理装置で構成されてもよい。また、学習装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。
[ソフトウェア構成]
<自動運転支援装置>
次に、図4を用いて、本実施形態に係る自動運転支援装置1のソフトウェア構成の一例を説明する。図4は、本実施形態に係る自動運転支援装置1のソフトウェア構成の一例を模式的に例示する。
自動運転支援装置1の制御部11は、記憶部12に記憶されたプログラム121をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図4に示されるとおり、本実施形態に係る自動運転支援装置1は、ソフトウェアモジュールとして、画像取得部111、観測情報取得部112、解像度変換部113、即応性推定部114、警告部115、及び運転制御部116を備えるコンピュータとして構成される。
画像取得部111は、車両の運転席に着いた運転者Dの腕部及び顔を撮影可能に配置されたカメラ31から撮影画像123を取得する。観測情報取得部112は、運転者Dの顔の挙動に関する顔挙動情報1241及び生体センサ32により測定された生体情報1242を含む観測情報124を取得する。本実施形態では、顔挙動情報1241は、撮影画像123を画像解析することで得られる。なお、観測情報124は、このような例に限定されなくてもよい。例えば、顔挙動情報1241及び生体情報1242のうちいずれかは省略されてもよい。生体情報1242が省略される場合、生体センサ32は省略されてもよい。
解像度変換部113は、画像取得部111により取得した撮影画像123の解像度を低下させる。これにより、解像度変換部113は、低解像度撮影画像1231を生成する。
即応性推定部114は、運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器(ニューラルネットワーク5)に、撮影画像123を低解像度化することで得られた低解像度撮影画像1231及び観測情報124を入力する。これにより、即応性推定部114は、運転者Dの腕部の運転に対する即応性の程度を示す腕部即応性情報125を当該学習器から取得する。なお、低解像度化の処理は省略されてもよい。この場合、即応性推定部114は、撮影画像123を学習器に入力してもよい。
ここで、図5を用いて、腕部即応性情報125を説明する。図5は、腕部即応性情報125の一例を示す。図5に示されるとおり、本実施形態に係る腕部即応性情報125は、運転者の腕部の運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで段階的に示す。また、本実施形態では、腕部の即応性の程度は、運転者の行動状態に応じて設定される。
運転者の行動状態と即応性の程度との対応関係は適宜設定可能である。例えば、運転者Dが、「ハンドル把持」、「計器操作」、及び「ナビゲーション操作」の行動状態にある場合には、当該運転者Dの腕部は、車両100の運転操作に直ちに取り掛かれる状態にあると推定可能である。そこで、本実施形態では、「ハンドル把持」、「計器操作」、及び「ナビゲーション操作」の行動状態に運転者があるのに対応して、腕部即応性情報125は、運転者の腕部の運転に対する即応性が高い状態にあることを示すように設定されている。なお、「ハンドル把持」は、運転者が把持している状態を指す。「計器操作」は、車両のスピードメータ等の計器を運転者が操作している状態を指す。「ナビゲーション操作」は、ナビゲーション装置を運転者が操作している状態を指す。
一方、運転者Dが、「喫煙」、「飲食」、「通話」、及び「携帯電話操作」の行動状態にある場合には、当該運転者Dの腕部は、車両100の運転操作に直ちには取り掛かれない状態にあると推定可能である。そこで、本実施形態では、「喫煙」、「飲食」、「通話」、及び「携帯電話操作」の行動状態に運転者があるのに対応して、腕部即応性情報125は、運転者の腕部の運転に対する即応性が低い状態にあることを示すように設定されている。なお、「喫煙」は、運転者が喫煙している状態を指す。「飲食」は、運転者が飲食物を飲食している状態を指す。「通話」は、運転者が携帯電話等の電話機で通話を行っている状態を指す。「携帯電話操作」は、運転者が携帯電話を操作している状態を指す。
なお、「即応性」の程度とは、運転に対する準備状態の程度を示し、例えば、異常等の発生により車両100の自動運転を継続できなくなったときに、運転者Dが手動で車両100を運転する状態に復帰可能な度合いを表わすことができる。そのため、腕部即応性情報125は、運転者の腕部が運転操作に復帰するのに適した状態であるか否かを判定するための指標として利用することができる。
警告部115は、腕部即応性情報125に基づいて、運転者Dの腕部が車両100の運転に復帰するのに適した状態であるか否か、換言すると、運転者Dの腕部の運転に対する即応性が高い状態にあるか否かを判定する。そして、運転者Dの腕部の運転に対する即応性が低い状態にあると判定した場合に、警告部115は、スピーカ33を介して、腕部の即応性を高めるように運転者Dに促す警告を行う。
運転制御部116は、車両100の駆動系及び制御系にアクセスすることで、運転者Dによらず自動的に運転操作を行う自動運転モードと運転者Dの手動により運転操作を行う手動運転モードとを選択的に実施するように車両100の動作を制御する。本実施形態では、運転制御部116は、腕部即応性情報125、ナビゲーション装置30の設定等に応じて、自動運転モードと手動運転モードとを切り替えるように構成される。
その一例として、運転制御部116は、自動運転モードが実施されている際に、腕部即応性情報125により示される運転者Dの腕部の運転に対する即応性が所定の条件を満たし、高い状態にあると判定される場合に、自動運転モードから手動運転モードへの切り替えを許可し、当該切り替えの指示を車両100に対して出力する。一方で、腕部即応性情報125により示される運転者Dの腕部の運転に対する即応性が所定の条件を満たさず、低い状態にあると判定される場合には、運転制御部116は、自動運転モードから手動運転モードへの切り替えを許可しない。この場合、運転制御部116は、自動運転モードを継続する、所定の停車区間に車両100を停車する、等のように手動運転モード以外のモードで車両100の動作を制御する。
すなわち、本実施形態では、この運転制御部116により、車両100は、自動運転モードと手動運転モードとを選択的に実施可能に構成される。また、本発明の「切替指示部」は、運転制御部116の一動作として実現される。
(学習器)
次に、学習器について説明する。図4に示されるとおり、本実施形態に係る自動運転支援装置1は、運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器として、ニューラルネットワーク5を利用する。本実施形態に係るニューラルネットワーク5は、複数種類のニューラルネットワークを組み合わせることで構成されている。
具体的には、ニューラルネットワーク5は、全結合ニューラルネットワーク51、畳み込みニューラルネットワーク52、結合層53、及びLSTMネットワーク54の4つの部分に分かれている。全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52は入力側に並列に配置されており、全結合ニューラルネットワーク51には観測情報124が入力され、畳み込みニューラルネットワーク52には低解像度撮影画像1231が入力される。結合層53は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52の出力を結合する。LSTMネットワーク54は、結合層53からの出力を受けて、腕部即応性情報125を出力する。
(a)全結合ニューラルネットワーク
全結合ニューラルネットワーク51は、いわゆる多層構造のニューラルネットワークであり、入力側から順に、入力層511、中間層(隠れ層)512、及び出力層513を備えている。ただし、全結合ニューラルネットワーク51の層の数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
各層511〜513は、1又は複数のニューロン(ノード)を備えている。各層511〜513に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。各層511〜513に含まれる各ニューロンが、隣接する層に含まれる全てのニューロンに結合されていることで、全結合ニューラルネットワーク51は構成される。各結合には、重み(結合荷重)が適宜設定されている。
(b)畳み込みニューラルネットワーク
畳み込みニューラルネットワーク52は、畳み込み層521及びプーリング層522を交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施形態に係る畳み込みニューラルネットワーク52では、複数の畳み込み層521及びプーリング層522が入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層522の出力が全結合層523に入力され、全結合層523の出力が出力層524に入力される。
畳み込み層521は、画像の畳み込みの演算を行う層である。画像の畳み込みとは、画像と所定のフィルタとの相関を算出する処理に相当する。そのため、画像の畳み込みを行うことで、例えば、フィルタの濃淡パターンと類似する濃淡パターンを入力される画像から検出することができる。
プーリング層522は、プーリング処理を行う層である。プーリング処理は、画像のフィルタに対する応答の強かった位置の情報を一部捨て、画像内に現れる特徴の微小な位置変化に対する応答の不変性を実現する。
全結合層523は、隣接する層の間のニューロン全てを結合した層である。すなわち、全結合層523に含まれる各ニューロンは、隣接する層に含まれる全てのニューロンに結合される。全結合層513は、2層以上で構成されてもよい。また、全結合層423に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
出力層524は、畳み込みニューラルネットワーク52の最も出力側に配置される層である。出力層524に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。なお、畳み込みニューラルネットワーク52の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
(c)結合層
結合層53は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52とLSTMネットワーク54との間に配置される。結合層53は、全結合ニューラルネットワーク51の出力層513からの出力及び畳み込みニューラルネットワーク52の出力層524からの出力を結合する。結合層53の出力は、LSTMネットワーク54に入力される。結合層53に含まれるニューロンの個数は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52の出力の数に応じて適宜設定されてよい。
(d)LSTMネットワーク
LSTMネットワーク54は、LSTMブロック542を備える再起型ニューラルネットワークである。再帰型ニューラルネットワークは、例えば、中間層から入力層への経路のように、内部にループを有するニューラルネットワークのことである。LSTMネットワーク54は、一般的な再起型ニューラルネットワークの中間層をLSTMブロック542に置き換えた構造を有する。
本実施形態では、LSTMネットワーク54は、入力側から順に、入力層541、LSTMブロック542、及び出力層543を備えており、順伝播の経路の他、LSTMブロック542から入力層541に戻る経路を有している。入力層541及び出力層543に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
LSTMブロック542は、入力ゲート及び出力ゲートを備え、情報の記憶及び出力のタイミングを学習可能に構成されたブロックである(S.Hochreiter and J.Schmidhuber, "Long short-term memory" Neural Computation, 9(8):1735-1780, November 15, 1997)。また、LSTMブロック542は、情報の忘却のタイミングを調節する忘却ゲートを備えてもよい(Felix A. Gers, Jurgen Schmidhuber and Fred Cummins, "Learning to Forget: Continual Prediction with LSTM" Neural Computation, pages 2451-2471, October 2000)。LSTMネットワーク54の構成は、実施の形態に応じて適宜設定可能である。
(e)小括
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。自動運転支援装置1は、全結合ニューラルネットワーク51に観測情報124を入力し、畳み込みニューラルネットワーク52に低解像度撮影画像1231を入力する。そして、自動運転支援装置1は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、自動運転支援装置1は、腕部即応性情報125に対応する出力値をニューラルネットワーク5の出力層543から取得する。
なお、このようなニューラルネットワーク5の構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ122に含まれている。自動運転支援装置1は、学習結果データ122を参照して、運転者Dの運転集中度を推定する処理に用いる学習済みニューラルネットワーク5の設定を行う。
<学習装置>
次に、図6を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例を説明する。図6は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
学習装置2の制御部21は、記憶部22に記憶された学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係る学習装置2は、ソフトウェアモジュールとして、学習データ取得部211、及び学習処理部212を備えるコンピュータとして構成される。
学習データ取得部211は、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得する。上記のとおり、本実施形態では、撮影画像の他に、運転者の顔の挙動を示す顔挙動情報を含む観測情報が学習器の入力として利用される。そのため、学習データ取得部211は、低解像度撮影画像223、観測情報224、及び腕部即応性情報225の組を学習データ222として取得する。低解像度撮影画像223及び観測情報224はそれぞれ、上記低解像度撮影画像1231及び観測情報124に対応し、入力データとして利用される。腕部即応性情報225は、上記腕部即応性情報125に対応し、教師データ(正解データ)として利用される。学習処理部212は、低解像度撮影画像223及び観測情報224を入力すると腕部即応性情報225に対応する出力値を出力するように学習器の機械学習を行う。
図6に示されるとおり、本実施形態において、学習対象となる学習器は、ニューラルネットワーク6である。当該ニューラルネットワーク6は、全結合ニューラルネットワーク61、畳み込みニューラルネットワーク62、結合層63、及びLSTMネットワーク64を備え、上記ニューラルネットワーク5と同様に構成される。全結合ニューラルネットワーク61、畳み込みニューラルネットワーク62、結合層63、及びLSTMネットワーク64はそれぞれ、上記全結合ニューラルネットワーク51、畳み込みニューラルネットワーク52、結合層53、及びLSTMネットワーク54と同様である。
学習処理部212は、ニューラルネットワークの学習処理により、全結合ニューラルネットワーク61に観測情報224を入力し、畳み込みニューラルネットワーク62に低解像度撮影画像223を入力すると、腕部即応性情報225に対応する出力値をLSTMネットワーク64から出力するニューラルネットワーク6を構築する。そして、学習処理部212は、構築したニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。
<その他>
自動運転支援装置1及び学習装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、自動運転支援装置1及び学習装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、自動運転支援装置1及び学習装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
§3 動作例
[自動運転支援装置]
次に、図7を用いて、自動運転支援装置1の動作例を説明する。図7は、自動運転支援装置1の処理手順の一例を例示するフローチャートである。以下で説明する運転者Dの腕部の運転に対する即応性の程度を推定する処理手順は、本発明の「運転者監視方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(起動)
まず、運転者Dは、車両100のイグニッション電源をオンにすることで、自動運転支援装置1を起動し、起動した自動運転支援装置1にプログラム121を実行させる。これにより、自動運転支援装置1の制御部11は、以下の処理手順に従って、運転者Dの状態を監視する。なお、プログラム実行のトリガは、このような車両100のイグニッション電源をオンにすることに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、プログラムの実行は、入力装置(不図示)を介した運転者Dの指示をトリガとして開始されてよい。
(ステップS101)
ステップS101では、制御部11は、運転制御部116として動作し、車両100の自動運転を開始する。例えば、制御部11は、ナビゲーション装置30から地図情報、周辺情報、及びGPS情報を取得して、取得した地図情報、周辺情報、及びGPS情報に基づいて車両100の自動運転を実施する。自動運転の制御方法には、公知の制御方法が利用可能である。車両100の自動運転モードを開始すると、制御部11は、次のステップS102に処理を進める。
(ステップS102)
ステップS102では、制御部11は、画像取得部111として動作し、車両100の運転席についた運転者Dの腕部及び顔を撮影するように配置されたカメラ31から撮影画像123を取得する。取得する撮影画像123は、動画像であってもよいし、静止画像であってもよい。撮影画像123を取得すると、制御部11は、次のステップS103に処理を進める。
(ステップS103)
ステップS103では、制御部11は、観測情報取得部112として動作し、運転者Dの顔に挙動する顔挙動情報1241及び生体情報1242を含む観測情報124を取得する。観測情報124を取得すると、制御部11は、次のステップS104に処理を進める。
顔挙動情報1241は適宜取得されてよい。例えば、制御部11は、ステップS102で取得した撮影画像123に対して所定の画像解析を行うことで、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する情報を顔挙動情報1241として取得することができる。
顔挙動情報1241の取得方法の一例として、まず、制御部11は、撮影画像123から運転者Dの顔を検出し、検出した顔の位置を特定する。これにより、制御部11は、顔の検出可否及び位置に関する情報を取得することができる。また、継続的に顔の検出を行うことで、制御部11は、顔の動きに関する情報を取得することができる。次に、制御部11は、検出した顔の画像内において、運転者Dの顔に含まれる各器官(眼、口、鼻、耳等)を検出する。これにより、制御部11は、顔の器官の位置に関する情報を取得することができる。そして、制御部11は、検出した各器官(眼、口、鼻、耳等)の状態を解析することで、顔の向き、視線の方向、及び目の開閉に関する情報を取得することができる。顔の検出、器官の検出、及び器官の状態の解析には、パターンマッチング等の公知の画像解析方法が用いられてよい。
なお、取得される撮影画像123が、動画像又は時系列に並んだ複数の静止画像である場合、制御部11は、これらの画像解析を撮影画像123の各フレームに実行することで、時系列に沿って各種情報を取得することができる。これにより、制御部11は、ヒストグラム又は統計量(平均値、分散値等)で表された各種情報を時系列データで取得することができる。
また、生体情報(例えば、脳波、心拍数等)1242は、生体センサ32から取得可能である。生体情報1242は、例えば、ヒストグラム又は統計量(平均値、分散値等)で表されてよい。顔挙動情報1241と同様に、制御部11は、生体センサ32に継続的にアクセスすることで、生体情報1242を時系列データで取得することができる。
(ステップS104)
ステップS104では、制御部11は、解像度変換部113として動作し、ステップS102で取得した撮影画像123の解像度を低下させる。これにより、制御部11は、低解像度撮影画像1231を生成する。低解像度化の処理方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ニアレストネイバー法、バイリニア補間法、バイキュービック法等により、低解像度撮影画像1231を生成することができる。低解像度撮影画像1231を生成すると、制御部11は、次のステップS105に処理を進める。なお、本ステップS104は省略されてもよい。
(ステップS105及びS106)
ステップS105では、制御部11は、即応性推定部114として動作し、取得した観測情報124及び低解像度撮影画像1231をニューラルネットワーク5の入力として用いて、当該ニューラルネットワーク5の演算処理を実行する。これにより、ステップS106では、制御部11は、腕部即応性情報125に対応する出力値を当該ニューラルネットワーク5から得る。
具体的には、制御部11は、ステップS103で取得した観測情報124を全結合ニューラルネットワーク51の入力層511に入力し、ステップS104で取得した低解像度撮影画像1231を、畳み込みニューラルネットワーク52の最も入力側に配置された畳み込み層521に入力する。そして、制御部11は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、腕部即応性情報125に対応する出力値をLSTMネットワーク54の出力層543から取得する。
(ステップS107及びS108)
ステップS107では、制御部11は、ステップS106で取得した腕部即応性情報125に基づいて、運転者Dが車両100の運転操作を行える状態にあるか否か、本ケースでは、運転者Dが車両100の運転に復帰するのに適した状態にあるか否かを判定する。具体的には、制御部11は、腕部即応性情報125により示される運転者Dの腕部の運転に対する即応性が所定の条件を満たすか否かを判定する。
所定の条件は、運転者Dの腕部の運転に対する即応性が高いか否かを判定可能に適宜設定されてよい。本実施形態では、腕部即応性情報125は、運転者Dの腕部の運転に対する即応性の程度を2つのレベルで表す。そのため、運転者Dの腕部の運転に対する即応性が高い状態であると腕部即応性情報125が示す場合に、制御部11は、運転者Dの腕部の運転に対する即応性が所定の条件を満たすと判定する。すなわち、制御部11は、運転者Dの腕部の運転に対する即応性が高い状態にあり、運転者Dが車両100の運転に復帰するのに適した状態にあると判定する。一方、運転者Dの腕部の運転に対する即応性が低い状態であると腕部即応性情報125が示す場合に、制御部11は、運転者Dの腕部の運転に対する即応性が所定の条件を満たさないと判定する。すなわち、制御部11は、運転者Dの腕部の運転に対する即応性が低い状態にあり、運転者Dが車両100の運転に復帰するのに適した状態にないと判定する。
運転者Dが車両100の運転に復帰するのに適した状態にあると判定した場合には、制御部11は、次のステップS109に処理を進める。一方、運転者Dが車両100の運転に復帰するのに適した状態にないと判定した場合には、制御部11は、次のステップS108の処理を実行する。
次のステップS108では、制御部11は、スピーカ33を介して、車両100の運転に復帰するのに適した状態をとるように、換言すると、腕部の即応性を高めるように運転者Dに促す警告を行い、本動作例に係る処理を終了する。警告の内容及び方法は、実施の形態に応じて適宜設定されてよい。
(ステップS109及びS110)
ステップS109では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両100の動作を切り替えるか否かを判定する。手動運転モードへの切り替えを実施すると判定した場合、制御部11は、次のステップS110に処理を進める。一方、手動運転モードへの切り替えを実施しないと判定した場合には、制御部11は、次のステップS110を省略して、本動作例に係る処理を終了する。
自動運転モードから手動運転モードに切り替えるトリガは、実施の形態に応じて適宜設定されてよい。例えば、運転者Dからの指示をトリガとしてもよい。この場合、運転者Dにより手動運転への切替の指示がなされたことに応じて、制御部11は、手動運転モードへの切り替えを実施すると判定する。一方、そのような手動運転への切替の指示がなかった場合には、制御部11は、手動運転モードへの切り替えを実施しないと判定する。
次のステップS110では、制御部11は、運転制御部116として動作し、自動運転モードから手動運転モードに車両100の動作を切り替える。これにより、制御部11は、車両100において手動運転モードの動作を開始し、本動作例に係る処理を終了する。なお、この手動運転モードの開始に際して、制御部11は、スピーカ33を介して、車両100の動作を手動運転モードに切り替えるため、ハンドルを握る等の運転操作を開始するように運転者Dにアナウンスをしてもよい。
以上により、自動運転支援装置1は、車両100の自動運転を実施している間に、運転者Dの腕部の運転に対する即応性の程度を監視することができる。なお、制御部11は、上記一連の処理を繰り返し実行することで、運転者Dの腕部の運転に対する即応性の程度を継続的に監視してもよい。また、制御部11は、上記一連の処理を繰り返し実行する間に、上記ステップS107において、運転者Dが車両100の運転に復帰するのに適した状態にないと複数回連続して判定した場合に、運転制御部116として動作し、自動運転モードを停止してもよい。そして、制御部11は、所定の場所に停車するように車両100を制御してもよい。この場合、例えば、制御部11は、運転者Dが車両100の運転に復帰するのに適した状態にないと複数回連続して判定した後に、地図情報、周辺情報及びGPS情報を参照して、車両100を安全に停止可能な場所に停車区間を設定してもよい。そして、制御部11は、車両100を停止する旨を運転者Dに伝えるための警告を実施し、設定した停車区間に車両100を自動停車させてもよい。これにより、運転者Dの腕部の運転に対する即応性が継続的に低い状態にあるときに、車両100の走行を停止させることで、即応性の低い状態の運転者Dが突発的に手動で車両100の運転操作を行わなければならない事態が発生するのを抑制することができる。
[学習装置]
次に、図8を用いて、学習装置2の動作例を説明する。図8は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する学習器の機械学習に関する処理手順は、本発明の「学習方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS201)
ステップS201では、学習装置2の制御部21は、学習データ取得部211として動作し、低解像度撮影画像223、観測情報224、及び腕部即応性情報225の組を学習データ222として取得する。
学習データ222は、ニューラルネットワーク6に対して、運転者の腕部の運転に対する即応性の程度を推定可能にするための機械学習に利用するデータである。このような学習データ222は、例えば、運転席に着いた運転者の腕部を撮影するように配置されたカメラ31を備える車両を用意し、運転席に着いた運転者を様々な条件で撮影し、得られる撮影画像に撮影条件(腕部の運転に対する即応性の程度)を紐付けることで作成することができる。このとき、低解像度撮影画像223は、上記ステップS104と同じ処理を当該取得した撮影画像に適用することで得ることができる。観測情報224に含まれる顔挙動情報は、上記ステップS103と同じ処理を当該取得した撮影画像に適用することで得ることができる。観測情報224に含まれる生体情報は、上記ステップS103と同様に生体センサから取得することができる。更に、腕部即応性情報225は、撮影画像に表れる運転者の腕部の運転に対する即応性の程度の入力を適宜受け付けることで得ることができる。
この学習データ222の作成は、オペレータ等が入力装置24を用いて手動で行ってもよいし、プログラムの処理により自動的に行われてもよい。この学習データ222は、運用されている車両から随時収集されてもよい。また、学習データ222の作成は、学習装置2以外の他の情報処理装置により行われてもよい。学習装置2が学習データ222を作成する場合には、制御部21は、本ステップS201において、学習データ222の作成処理を実行することで、学習データ222を取得することができる。一方、学習装置2以外の他の情報処理装置が学習データ222を作成する場合には、学習装置2は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により作成された学習データ222を取得することができる。なお、本ステップS201で取得する学習データ222の件数は、ニューラルネットワーク6の機械学習を行うことができるように、実施の形態に応じて適宜決定されてよい。
(ステップS202)
次のステップS202では、制御部21は、学習処理部212として動作して、ステップS201で取得した学習データ222を用いて、低解像度撮影画像223及び観測情報224を入力すると腕部即応性情報225に対応する出力値を出力するようにニューラルネットワーク6の機械学習を実施する。
具体的には、まず、制御部21は、学習処理を行う対象となるニューラルネットワーク6を用意する。用意するニューラルネットワーク6の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部21は、再学習を行う対象となる学習結果データ122に基づいて、ニューラルネットワーク6を用意してもよい。
次に、制御部21は、ステップS201で取得した学習データ222に含まれる低解像度撮影画像223及び観測情報224を入力データとして用い、腕部即応性情報225を教師データ(正解データ)として用いて、ニューラルネットワーク6の学習処理を行う。このニューラルネットワーク6の学習処理には、確率的勾配降下法等が用いられてよい。
例えば、制御部21は、全結合ニューラルネットワーク61の入力層に観測情報224を入力し、畳み込みニューラルネットワーク62の最も入力側に配置された畳み込み層に低解像度撮影画像223を入力する。そして、制御部21は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部21は、LSTMネットワーク64の出力層から出力値を得る。次に、制御部21は、LSTMネットワーク64の出力層から取得した出力値と腕部即応性情報225に対応する値との誤差を算出する。続いて、制御部21は、通時的誤差逆伝搬(Back propagation through time)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部21は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
制御部21は、各件の学習データ222について、ニューラルネットワーク6から出力される出力値が腕部即応性情報225に対応する値と一致するまでこの一連の処理を繰り返す。これにより、制御部21は、低解像度撮影画像223及び観測情報224を入力すると腕部即応性情報225に対応する出力値を出力するニューラルネットワーク6を構築することができる。
(ステップS203)
次のステップS203では、制御部21は、学習処理部212として動作して、構築したニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク6の学習処理を終了する。
なお、制御部21は、上記ステップS203の処理が完了した後に、作成した学習結果データ122を自動運転支援装置1に転送してもよい。また、制御部21は、上記ステップS201〜S203の学習処理を定期的に実行することで、学習結果データ122を定期的に更新してもよい。そして、制御部21は、作成した学習結果データ122を当該学習処理の実行毎に自動運転支援装置1に転送することで、自動運転支援装置1の保持する学習結果データ122を定期的に更新してもよい。また、例えば、制御部21は、作成した学習結果データ122をNAS(Network Attached Storage)等のデータサーバに保管してもよい。この場合、自動運転支援装置1は、このデータサーバから学習結果データ122を取得してもよい。
[作用・効果]
以上のように、本実施形態に係る自動運転支援装置1は、上記ステップS102及びS104の処理により、車両100の運転席についた運転者Dの腕部を撮影可能に配置されたカメラ31から得られる撮影画像(低解像度撮影画像1231)を取得する。そして、自動運転支援装置1は、上記ステップS105及びS106により、取得した低解像度撮影画像1231を学習済みのニューラルネットワーク(ニューラルネットワーク5)に入力することで、運転者Dの腕部の運転に対する即応性の程度を推定する。この学習済みのニューラルネットワークは、上記学習装置2により、低解像度撮影画像223及び腕部即応性情報225を含む学習データ222を用いて作成される。
したがって、本実施形態によれば、学習済みのニューラルネットワークと運転者Dの腕部が写り得る撮影画像とを用いることで、運転者Dの腕部が運転操作を行える状態にあるか否かに関する指標を腕部即応性情報125として得ることができる。これにより、自動運転モードで車両100が走行している際に、運転者Dの腕部が運転操作に直ちに対応可能かどうかを推定する精度を向上させることができる。加えて上記ステップS107及びS110のように、この腕部即応性情報125に基づいて、運転者Dが運転操作を行える状態にあるか否かという観点で、車両100の自動運転の動作を制御することができる。
また、本実施形態では、自動運転支援装置1は、上記ステップS105において、撮影画像の他に、ステップS103で取得した顔挙動情報1241及び生体情報1242を含む観測情報124を学習済みのニューラルネットワークに更に入力する。これにより、腕部の運転に対する即応性を推定する処理に、腕部の動きと連動し得る顔の挙動及び生体情報を反映させることができる。したがって、本実施形態によれば、運転者Dの腕部の運転に対する即応性の程度を推定する精度を高めることができる。
また、本実施形態では、運転者Dの腕部の挙動を推定するために、当該運転者Dの腕部を撮影可能に配置したカメラ31の撮影画像を用いている。この腕部の挙動は、撮影画像内で大きく表れ得る。そのため、運転者Dの腕部の挙動を推定するのに利用する撮影画像は、詳細な解析が可能なほど高解像度ではなくてもよい。そこで、本実施形態では、ニューラルネットワーク(5、6)の入力として、カメラ31により得られる撮影画像を低解像度化した低解像度撮影画像(1231、223)を用いてもよいように構成されている。これにより、ニューラルネットワーク(5、6)の演算処理の計算量を低減することができ、プロセッサの負荷を低減することができる。なお、低解像度撮影画像(1231、223)の解像度は、運転者の顔の挙動を解析できない程度に低くてもよく、運転者の腕部の挙動が判別可能な程度であるのが好ましい。
また、本実施形態に係るニューラルネットワーク5は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52を入力側に備えている。これにより、入力(低解像度撮影画像1231及び観測情報124)に適した解析を行うことができる。また、本実施形態に係るニューラルネットワーク5は、LSTMネットワーク54を出力側に備えている。低解像度撮影画像1231及び観測情報124に時系列データを利用することで、短期的な依存関係だけでなく、長期的な依存関係を考慮して、運転者Dの腕部の運転に対する即応性の程度を推定することができる。したがって、本実施形態によれば、運転者Dの腕部の運転に対する即応性の推定精度を高めることができる。
また、本実施形態では、車両100は、自動運転支援装置1(運転制御部116)により、自動運転モードと手動運転モードとを選択的に実施可能に構成されている。加えて、車両100は、自動運転支援装置1の上記ステップS107及びS110により、自動運転モードを実施している際に、腕部即応性情報125により示される運転者Dの腕部の運転に対する即応性が所定の条件を満たす場合に、自動運転モードから手動運転モードに切り替えるように構成される。これにより、運転者Dの腕部の運転に対する即応性が低い状態にある場合に、車両100の動作が手動運転モードにならないようにし、当該車両100の走行の安全性を確保することができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記実施形態では、自動運転支援装置1は、運転者Dを監視するモジュール(画像取得部111〜警告部115)及び車両100の自動運転の動作を制御するモジュール(運転制御部116)の両方を備えている。しかしながら、自動運転支援装置1のハードウェア構成は、このような例に限られなくてもよい。例えば、運転者Dを監視するモジュール及び車両100の自動運転の動作を制御するモジュールはそれぞれ別々のコンピュータに備えられてもよい。この場合、自動運転モードから手動運転モードへの切り替えを指示する切替指示部は、運転者Dを監視するモジュールと共にコンピュータに備えられてもよい。すなわち、切替指示部のモジュールを備えるコンピュータは、自動運転モードが実施されている際に、腕部即応性情報125により示される運転者Dの腕部の運転に対する即応性が所定の条件を満たす場合に、自動運転モードから手動運転モードに切り替える指示を車両100に対して出力してもよい。これに応じて、自動運転の動作を制御するモジュールを備えるコンピュータは、自動運転モードから手動運転モードへの切り替えの制御を行ってもよい。
<4.2>
上記実施形態では、自動運転支援装置1は、運転者Dの指示に応じて、自動運転モードと手動運転モードとを選択的に実施するように車両100の動作を制御している。しかしながら、自動運転モード及び手動運転モードを開始するトリガは、このような運転者Dの指示に限られなくてもよく、実施の形態に応じて適宜設定されてよい。例えば、ハンドルにセンサが取り付けられ、運転者がハンドルを握っているか否かを検知してもよい。この場合、自動運転支援装置1は、運転者がハンドルを握ったことを検知した後に、自動運転モードから手動運転モードへの切り替えを開始するまでのカウントダウン時間を音声又は表示により出力してもよい。そして、自動運転支援装置1は、カウントアップした時点で、車両100の動作を自動運転モードから手動運転モードに切り替えてもよい。
<4.3>
上記実施形態では、腕部即応性情報125は、運転者Dの腕部の運転に対する即応性が高い状態であるか低い状態であるかを2つのレベルで示している。しかしながら、腕部即応性情報125の表現形式は、このような例に限定されなくてもよい。腕部即応性情報125は、運転者Dの腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示してもよい。
図9は、本変形例に係る腕部即応性情報の一例を示す。図9に示すとおり、本変形例に係る腕部即応性情報は、各行動状態に対する即応性の程度を0から1までのスコア値で定めている。例えば、図9の例では、「携帯電話操作」、「通話」、及び「飲食」にはそれぞれスコア値「0」が割り当てられており、「ハンドル把持」にはスコア値「1」が割り当てられている。また、「喫煙」には、0と1との間であって、0よりのスコア値(例えば、0.2)が割り当てられている。更に、「計器操作」及び「ナビゲーション操作」にはそれぞれ、0と1との間であって、1よりのスコア値(例えば、0.7)が割り当てられている。このように、各行動状態に対して3種類以上のスコア値を割り当てることで、腕部即応性情報125は、運転者Dの腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示してもよい。
この場合、上記ステップS107では、制御部11は、腕部即応性情報125のスコア値に基づいて、運転者Dが車両100の運転に復帰するのに適した状態にあるか否かを判定してもよい。例えば、制御部11は、腕部即応性情報125のスコア値が所定の閾値よりも高いか否かに基づいて、運転者Dが車両100の運転に復帰するのに適した状態にあるか否かを判定してもよい。閾値は、運転者Dが車両100の運転に復帰するのに適した状態にあるか否かを判定するための基準であり、上記「所定の条件」の一例である。この閾値は、適宜設定されてよい。なお、スコア値の上限値は「1」に限られなくてもよく、下限値は「0」に限られなくてもよい。
また、上記ステップS108では、制御部11(警告部115)は、腕部即応性情報125の示す運転者Dの腕部の運転に対する即応性のレベルに応じて、腕部の即応性を高めるように運転者Dに促す警告を段階的に行ってもよい。例えば、制御部11は、腕部即応性情報125の示すスコア値が低いほど強い警告(例えば、音量を上げる、ビープ音を鳴らす、等)してもよい。
また、上記腕部即応性情報125では、腕部内の部位の考慮がなされていない。しかしながら、車両のハンドル操作は手で行われる。そのため、腕部のうち手が、車両の運転操作に重要な部位であると想定される。そこで、腕部即応性情報125は、手の運転に対する即応性を示すように構成されてよい。
この場合、上記ステップS107では、制御部11は、腕部即応性情報125により示される運転者Dの手の運転に対する即応性が所定の条件を満たすか否かを判定してもよい。そして、ステップS107において、腕部即応性情報125により示される運転者Dの手の運転に対する即応性が所定の条件を満たすと判定される場合に、制御部11は、上記ステップS110により、自動運転モードから手動運転モードに車両100の動作を切り替えてもよい。
このように制御することで、車両100は、自動運転モードを実施している際に、腕部即応性情報125により示される運転者Dの手の運転に対する即応性が所定の条件を満たす場合に、自動運転モードから手動運転モードに切り替えるように構成される。これによって、運転者Dが車両100の運転操作を行える状態にあるか否かを適切に評価することができる。
また、上記図9の例では、「ハンドル把持」と「飲食」等とで異なるスコア値が割り当てられている。このように、腕部即応性情報125は、手に保持している物体の属性に応じて、運転者の腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示してもよい。この場合、腕部即応性情報125は、上記図9の例と同様に、スコア値により表現されてよい。
腕部の即応性と物体の属性との対応関係は、実施の形態に応じて適宜設定可能である。属性は、例えば、物体の種類、大きさ等により示される。例えば、携帯電話、飲食物等の手全体を使用し得る物体は、運転者のハンドル操作を大きく阻害すると想定される。同様に、比較的に大きめの物体は、運転者の手全体を占領し、当該運転者のハンドル操作を大きく阻害すると想定される。すなわち、これらの物体を手で保持している場合、運転者の腕部(手)の運転に対する即応性は低い状態にあると想定される。そのため、これらの物体については、腕部即応性情報125のスコア値が低くなるように設定されてよい。
一方、ハンカチ等の手全体を使用し難い物体は、運転者のハンドル操作を大きくは阻害しないと想定される。同様に、比較的に小さな物体は、運転者の手全体を占領せず、当該運転者のハンドル操作を大きくは阻害しないと想定される。すなわち、これらの物体を手で保持している場合、運転者の腕部(手)の運転に対する即応性は高い状態にあるとしてもよいと想定される。そのため、これらの物体については、腕部即応性情報125のスコア値が高くなるように設定されてよい。
なお、腕部即応性情報125の対象とする状態には、手に物体を保持している状態の他、手に何も保持していない状態が含まれてもよい。手に何も保持していない場合には、運転者は、ハンドル操作に直ちに取り掛かれると想定される。そのため、手に何も保持していない状態については、即応性の程度が比較的に高くなるようにスコア値が定められてもよい。また、運転者は、ハンドルに手が近いほどハンドル操作に取り掛かりやすく、ハンドルから手が遠いほどハンドル操作に取り掛かりにくいと想定される。そのため、手とハンドルとの距離に応じて、腕部即応性情報125のスコア値が設定されてもよい。
また、上記実施形態及び図9の例では、腕部即応性情報125の示す即応性の程度は、各行動状態に対応して設定されている。しかしながら、同一の行動状態の中でも、即応性の程度は変化し得る。例えば、飲食をし始めた状況では、腕部の運転に対する即応性は極めて低い状態にあると想定されるのに対して、飲食を終了しかけている状況では、腕部の運転に対する即応性は比較的に高くなってきていると想定される。そこで、腕部即応性情報125の示す即応性の程度は、同一の行動状態であっても、その状況に応じて異なるように設定されてもよい。これにより、運転者Dが車両100の運転操作を行える状態にあるか否かを更に適切に評価することができる。また、同一の行動状態であっても、その状況に応じて、自動運転モードから手動運転モードに切り替えないようにしたり、切り替えられるようにしたりすることができる。例えば、上記の点を考慮して、「飲食」状態について、飲食をし始めたケースに対しては0に近いスコア値を割り当て、飲食がほぼ終了したケースに対しては1に近いスコア値を割り当ててもよい。この場合、飲食をし始めたケースでは、自動運転モードから手動運転モードへの切り替えが起きないようにし、飲食がほぼ終了したケースでは、自動運転モードから手動運転モードへの切り替えが起きるように車両の制御を行うことができる。
<4.4>
上記実施形態では、上記ステップS105において、低解像度撮影画像1231をニューラルネットワーク5に入力している。しかしながら、ニューラルネットワーク5に入力する撮影画像は、このような例に限定されなくてもよい。制御部11は、ステップS102で取得した撮影画像123をそのままニューラルネットワーク5に入力してもよい。この場合、上記処理手順において、ステップS104は省略されてよい。また、上記自動運転支援装置1のソフトウェア構成において、解像度変換部113は省略されてよい。
また、上記実施形態では、制御部11は、ステップS103により観測情報124を取得した後、ステップS104による撮影画像123の低解像度化の処理を実行している。しかしながら、ステップS103及びS104の処理順序は、このような例に限定されなくてもよく、ステップS104の処理を実行した後に、制御部11は、ステップS103の処理を実行してもよい。
<4.5>
上記実施形態では、制御部11は、ステップS105において、観測情報124及び低解像度撮影画像1231をニューラルネットワーク5に入力している。しかしながら、ニューラルネットワーク5の入力は、このような例に限定されなくてもよく、観測情報124及び低解像度撮影画像1231以外の情報が、ニューラルネットワーク5に入力されてもよい。
図10は、本変形例に係る自動運転支援装置1Aのソフトウェア構成の一例を模式的に例示する。自動運転支援装置1Aは、運転者Dの運転状態に影響を与える因子に関する影響因子情報126をニューラルネットワーク5に更に入力する点を除き、上記自動運転支援装置1と同様に構成される。影響因子情報126は、例えば、車両の走行速度を示す速度情報、車両の周辺環境の状態を示す周辺環境情報(レーダの測定結果、カメラの撮影画像)、天候を示す天候情報等である。
影響因子情報126が数値データで与えられる場合、自動運転支援装置1Aの制御部11は、上記ステップS105において、ニューラルネットワーク5の全結合ニューラルネットワーク51に影響因子情報126を入力してもよい。また、影響因子情報126が画像データで与えられる場合、制御部11は、上記ステップS105において、ニューラルネットワーク5の畳み込みニューラルネットワーク52に影響因子情報126を入力してもよい。
当該変形例では、観測情報124及び低解像度撮影画像1231の他に、影響因子情報126を更に利用することにより、運転者Dの運転状態に影響を与える因子を上記推定処理に反映することができる。これによって、当該変形例によれば、運転者Dの腕部の運転に対する即応性の推定精度を高めることができる。
なお、制御部11は、この影響因子情報126に基づいて、上記ステップS107における判定基準を変更してもよい。例えば、上記変形例<4.3>のとおり、腕部即応性情報125がスコア値で示される場合に、制御部11は、影響因子情報126に基づいて、上記ステップS107の判定に利用する閾値を変更してもよい。一例として、制御部11は、速度情報の示す車両の走行速度が大きくなるほど、運転者Dが車両の運転操作を行える状態にあると判定するための閾値(所定の条件)の値を大きくしてもよい。
<4.6>
上記実施形態では、自動運転支援装置1は、警告部115を備え、ステップS108において運転者Dに対する警告を実施する。しかしながら、警告を実施しない場合には、ステップS108は省略されてよく、自動運転支援装置1のソフトウェア構成から警告部115が省略されてもよい。
<4.7>
上記実施形態では、カメラ31は、運転者Dの腕部及び顔を撮影可能に配置され、ニューラルネットワーク(5、6)には、観測情報(124、224)が入力される。しかしながら、この観測情報(124、224)は省略されてもよい。
図11は、本変形例に係る自動運転支援装置1Bのソフトウェア構成を模式的に例示する。自動運転支援装置1Bは、観測情報124を利用しないため、観測情報取得部112を備えていない。また、観測情報124が入力されないため、ニューラルネットワーク5Bは、全結合ニューラルネットワーク51及び結合層53を備えていない。すなわち、ニューラルネットワーク5Bでは、畳み込みニューラルネットワーク52の出力がLSTMネットワーク54に入力される。即応性推定部114は、低解像度撮影画像1231を畳み込みニューラルネットワーク52に入力することで、LSTMネットワーク54の出力層から腕部即応性情報125を取得する。
これらの点を除き、自動運転支援装置1Bは、上記実施形態に係る自動運転支援装置1と同様に構成される。本変形例では、上記ステップS103を省略することができる。また、機械学習に利用される学習データ222において、観測情報224を省略することができる。なお、本変形例では、撮影画像123から顔挙動情報1241を取得しないため、カメラ31は、運転席についた運転者Dの腕部は写るが、顔は写らない位置に配置されてもよい。
また、上記実施形態では、観測情報124は、顔挙動情報1241及び生体情報1242を含んでいる。しかしながら、観測情報124の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。顔挙動情報1241及び生体情報1242の少なくとも一方は省略されてもよい。また、観測情報124は、顔挙動情報1241及び生体情報1242以外の情報を含んでもよい。例えば、観測情報124には、運転者の腕部の状態又は動作に関連する情報が含まれてもよい。また、例えば、ステアリングタッチセンサ、ペダルの踏力センサ、座席の圧力センサ等のセンサを車両が備える場合に、観測情報には、これらのセンサから得られる測定結果が含まれてもよい。
<4.8>
上記実施形態では、図4及び図6に示されるとおり、運転者Dの腕部の運転に対する即応性の推定に利用するニューラルネットワークは、全結合ニューラルネットワーク、畳み込みニューラルネットワーク、結合層及びLSTMネットワークを備えている。しかしながら、当該ニューラルネットワークの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、LSTMネットワークは省略されてもよい。また、観測情報124の入力を省略する場合には、上記のとおり、全結合ニューラルネットワーク及び結合層が省略されてもよい。
<4.9>
上記実施形態では、運転者Dの腕部の運転に対する即応性の推定に利用する学習器として、ニューラルネットワークを用いている。しかしながら、学習器の種類は、撮影画像を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。利用可能な学習器として、例えば、サポートベクターマシン、自己組織化マップ、強化学習により機械学習を行う学習器等を挙げることができる。
<4.10>
上記実施形態では、自動運転支援装置1は、ニューラルネットワーク5からの出力として、当該ニューラルネットワーク5から腕部即応性情報125を直接的に取得している。しかしながら、腕部即応性情報を学習器から取得する方法は、このような例に限定されなくてもよい。例えば、自動運転支援装置1は、学習器の出力値と腕部の即応性の程度とを対応付けたテーブル形式等の参照情報を記憶部12に保持していてもよい。この場合、制御部11は、上記ステップS105において、低解像度撮影画像1231及び観測情報124を入力として用いて、ニューラルネットワーク5の演算処理を行うことで、当該ニューラルネットワーク5から出力値を得る。そして、上記ステップS106において、制御部11は、参照情報を参照することで、ニューラルネットワーク5から得た出力値に対応する腕部の即応性の程度を示す腕部即応性情報125を取得する。このように、自動運転支援装置1は、腕部即応性情報125を間接的に取得してもよい。なお、この場合、参照情報は、ユーザ毎に保持されてもよい。また、ニューラルネットワーク5から出力される出力値は、運転者の腕部の状態に対応するように設定されてもよい。
(付記1)
ハードウェアプロセッサ(11)と、
前記ハードウェアプロセッサ(11)で実行するプログラム(121)を保持するメモリ(12)と、
を備える運転者監視装置(1、1A、1B)であって、
前記ハードウェアプロセッサ(11)は、前記プログラム(121)を実行することにより、
車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得ステップと、
前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する推定ステップと、
を実行するように構成される、
運転者監視装置(1、1A、1B)。
(付記2)
ハードウェアプロセッサ(11)により、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得ステップと、
ハードウェアプロセッサ(11)により、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する推定ステップと、
を備える、
運転者監視方法。
(付記3)
ハードウェアプロセッサ(21)と、
前記ハードウェアプロセッサ(21)で実行するプログラム(221)を保持するメモリ(22)と、
を備える学習装置(2)であって、
前記ハードウェアプロセッサ(21)は、前記プログラム(221)を実行することにより、
車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得する学習データ取得ステップと、
前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行う学習処理ステップと、
を実施するように構成される、
学習装置(2)。
(付記4)
ハードウェアプロセッサ(21)により、車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得する学習データ取得ステップと、
ハードウェアプロセッサ(21)により、前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行う学習処理ステップと、
を備える、
学習方法。
1…自動運転支援装置(運転者監視装置)、
11…制御部、12…記憶部、13…外部インタフェース、
111…画像取得部、112…観測情報取得部、
113…解像度変換部、114…即応性推定部、
115…警告部、
121…プログラム、122…学習結果データ、
123…撮影画像、1231…低解像度撮影画像、
124…観測情報、1241…顔挙動情報、1242…生体情報、
125…腕部即応性情報、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…学習データ取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
223…低解像度撮影画像、224…観測情報、
225…腕部即応性情報、
30…ナビゲーション装置、31…カメラ、32…生体センサ、
33…スピーカ、
5…ニューラルネットワーク、
51…全結合ニューラルネットワーク、
511…入力層、512…中間層(隠れ層)、513…出力層、
52…畳み込みニューラルネットワーク、
521…畳み込み層、522…プーリング層、
523…全結合層、524…出力層、
53…結合層、
54…LSTMネットワーク(再帰型ニューラルネットワーク)、
541…入力層、542…LSTMブロック、543…出力層、
6…ニューラルネットワーク、
61…全結合ニューラルネットワーク、
62…畳み込みニューラルネットワーク、63…結合層、
64…LSTMネットワーク、
92…記憶媒体

Claims (14)

  1. 車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得部と、
    前記運転者の腕部が手動運転に直ちに対応可能か否かの度合いとして、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する即応性推定部と、
    を備える、
    運転者監視装置。
  2. 自動的に運転操作を行う自動運転モードと運転者の手動により運転操作を行う手動運転モードとを選択的に実施可能に構成された前記車両に対して、前記自動運転モードが実施されている際に、前記腕部即応性情報により示される前記運転者の腕部の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える指示を出力する切替指示部を更に備える、
    請求項1に記載の運転者監視装置。
  3. 前記切替指示部は、前記自動運転モードが実施されている際に、前記腕部即応性情報により示される前記運転者の手の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える指示を出力する、
    請求項2に記載の運転者監視装置。
  4. 前記腕部即応性情報は、前記運転者の腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示す、
    請求項1から3のいずれか1項に記載の運転者監視装置。
  5. 前記腕部即応性情報は、前記運転者が手に保持している物体の属性に応じて、前記運転者の腕部の運転に対する即応性の程度を3つ以上のレベルで段階的に示す、
    請求項4に記載の運転者監視装置。
  6. 前記腕部即応性情報の示す前記運転者の腕部の運転に対する即応性のレベルに応じて、腕部の即応性を高めるように前記運転者に促す警告を段階的に行う警告部を更に備える、
    請求項4又は5に記載の運転者監視装置。
  7. 前記運転者の観測情報を取得する観測情報取得部を更に備え、
    前記即応性推定部は、前記観測情報を前記学習器に更に入力する、
    請求項1から6のいずれか1項に記載の運転者監視装置。
  8. 前記撮影装置は、前記運転者の顔を更に撮影可能に配置され、
    前記観測情報取得部は、取得した前記撮影画像に対して所定の画像解析を行うことで、前記運転者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する顔挙動情報を含む前記観測情報を取得する、
    請求項7に記載の運転者監視装置。
  9. 前記観測情報取得部は、前記運転者の生体情報を含む前記観測情報を取得する、
    請求項7又は8に記載の運転者監視装置。
  10. コンピュータが、
    車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から撮影画像を取得する画像取得ステップと、
    前記運転者の腕部が手動運転に直ちに対応可能か否かの度合いとして、前記運転者の腕部の運転に対する即応性の程度を推定するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、前記学習済みの学習器の演算処理を実行することで、前記運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報を当該学習器から取得する推定ステップと、
    を実行する、
    運転者監視方法。
  11. 前記コンピュータは、
    自動的に運転操作を行う自動運転モードと運転者の手動により運転操作を行う手動運転モードとを選択的に実施するように前記車両の動作を制御し、
    前記自動運転モードを実施している際に、前記腕部即応性情報により示される前記運転者の腕部の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える、
    請求項10に記載の運転者監視方法。
  12. 前記コンピュータは、前記自動運転モードを実施している際に、前記腕部即応性情報により示される前記運転者の手の運転に対する即応性が所定の条件を満たす場合に、前記自動運転モードから前記手動運転モードに切り替える、
    請求項11に記載の運転者監視方法。
  13. 車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部が手動運転に直ちに対応可能か否かの度合いとして、当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得する学習データ取得部と、
    前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行う学習処理部と、
    を備える、
    学習装置。
  14. コンピュータが、
    車両の運転席に着いた運転者の腕部を撮影可能に配置された撮影装置から取得される撮影画像、及び当該運転者の腕部が手動運転に直ちに対応可能か否かの度合いとして、当該運転者の腕部の運転に対する即応性の程度を示す腕部即応性情報の組を学習データとして取得するステップと、
    前記撮影画像を入力すると前記腕部即応性情報に対応する出力値を出力するように学習器の機械学習を行うステップと、
    を実行する、
    学習方法。

JP2017130209A 2017-03-14 2017-07-03 運転者監視装置、運転者監視方法、学習装置及び学習方法 Active JP6264495B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036278 WO2018168040A1 (ja) 2017-03-14 2017-10-05 運転者監視装置、運転者監視方法、学習装置及び学習方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017049250 2017-03-14
JP2017049250 2017-03-14

Publications (2)

Publication Number Publication Date
JP6264495B1 true JP6264495B1 (ja) 2018-01-24
JP2018152038A JP2018152038A (ja) 2018-09-27

Family

ID=61020628

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017120586A Active JP6264492B1 (ja) 2017-03-14 2017-06-20 運転者監視装置、運転者監視方法、学習装置及び学習方法
JP2017130208A Active JP6264494B1 (ja) 2017-03-14 2017-07-03 運転者監視装置、運転者監視方法、学習装置及び学習方法
JP2017130209A Active JP6264495B1 (ja) 2017-03-14 2017-07-03 運転者監視装置、運転者監視方法、学習装置及び学習方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017120586A Active JP6264492B1 (ja) 2017-03-14 2017-06-20 運転者監視装置、運転者監視方法、学習装置及び学習方法
JP2017130208A Active JP6264494B1 (ja) 2017-03-14 2017-07-03 運転者監視装置、運転者監視方法、学習装置及び学習方法

Country Status (5)

Country Link
US (1) US20190370580A1 (ja)
JP (3) JP6264492B1 (ja)
CN (1) CN110268456A (ja)
DE (1) DE112017007252T5 (ja)
WO (3) WO2018167991A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200341A1 (ja) * 2020-03-31 2021-10-07 いすゞ自動車株式会社 許否決定装置
JP7347918B2 (ja) 2017-11-20 2023-09-20 日本無線株式会社 水位予測方法、水位予測プログラム及び水位予測装置
JP7372010B2 (ja) 2018-05-23 2023-10-31 モビディウス リミテッド 深層学習システム

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028798A1 (zh) * 2017-08-10 2019-02-14 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
JP6766791B2 (ja) * 2017-10-04 2020-10-14 株式会社デンソー 状態検出装置、状態検出システム及び状態検出プログラム
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US10303045B1 (en) * 2017-12-20 2019-05-28 Micron Technology, Inc. Control of display device for autonomous vehicle
US11017249B2 (en) * 2018-01-29 2021-05-25 Futurewei Technologies, Inc. Primary preview region and gaze based driver distraction detection
US11654936B2 (en) * 2018-02-05 2023-05-23 Sony Corporation Movement device for control of a vehicle based on driver information and environmental information
JP7020156B2 (ja) * 2018-02-06 2022-02-16 オムロン株式会社 評価装置、動作制御装置、評価方法、及び評価プログラム
JP6935774B2 (ja) * 2018-03-14 2021-09-15 オムロン株式会社 推定システム、学習装置、学習方法、推定装置及び推定方法
TWI666941B (zh) * 2018-03-27 2019-07-21 緯創資通股份有限公司 多層次狀態偵測系統與方法
JP2021128349A (ja) * 2018-04-26 2021-09-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US10684681B2 (en) * 2018-06-11 2020-06-16 Fotonation Limited Neural network image processing apparatus
US10457294B1 (en) * 2018-06-27 2019-10-29 Baidu Usa Llc Neural network based safety monitoring system for autonomous vehicles
JP7014129B2 (ja) 2018-10-29 2022-02-01 オムロン株式会社 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム
US10940863B2 (en) * 2018-11-01 2021-03-09 GM Global Technology Operations LLC Spatial and temporal attention-based deep reinforcement learning of hierarchical lane-change policies for controlling an autonomous vehicle
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
JP7135824B2 (ja) * 2018-12-17 2022-09-13 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法、及びプログラム
US11087175B2 (en) * 2019-01-30 2021-08-10 StradVision, Inc. Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them
JP7334415B2 (ja) * 2019-02-01 2023-08-29 オムロン株式会社 画像処理装置
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
JP7361477B2 (ja) * 2019-03-08 2023-10-16 株式会社Subaru 車両の乗員監視装置、および交通システム
CN111723596B (zh) * 2019-03-18 2024-03-22 北京市商汤科技开发有限公司 注视区域检测及神经网络的训练方法、装置和设备
US10740634B1 (en) 2019-05-31 2020-08-11 International Business Machines Corporation Detection of decline in concentration based on anomaly detection
JP7136047B2 (ja) * 2019-08-19 2022-09-13 株式会社デンソー 運転制御装置及び車両行動提案装置
US10752253B1 (en) * 2019-08-28 2020-08-25 Ford Global Technologies, Llc Driver awareness detection system
CN114423343A (zh) * 2019-09-19 2022-04-29 三菱电机株式会社 认知功能推测装置、学习装置及认知功能推测方法
JP2021082154A (ja) 2019-11-21 2021-05-27 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
JP7434829B2 (ja) 2019-11-21 2024-02-21 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
JP7317277B2 (ja) 2019-12-31 2023-07-31 山口 道子 ピンチを使わない物干し具
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
WO2021172584A1 (ja) * 2020-02-28 2021-09-02 ダイキン工業株式会社 効率推定装置
US11738763B2 (en) * 2020-03-18 2023-08-29 Waymo Llc Fatigue monitoring system for drivers tasked with monitoring a vehicle operating in an autonomous driving mode
CN111553190A (zh) * 2020-03-30 2020-08-18 浙江工业大学 一种基于图像的驾驶员注意力检测方法
US11091166B1 (en) * 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
JP7420000B2 (ja) 2020-07-15 2024-01-23 トヨタ紡織株式会社 状態判定装置、状態判定システム、および制御方法
GB2597092A (en) * 2020-07-15 2022-01-19 Daimler Ag A method for determining a state of mind of a passenger, as well as an assistance system
JP7405030B2 (ja) 2020-07-15 2023-12-26 トヨタ紡織株式会社 状態判定装置、状態判定システム、および制御方法
JP7186749B2 (ja) * 2020-08-12 2022-12-09 ソフトバンク株式会社 管理システム、管理方法、管理装置、プログラム及び通信端末
CN112558510B (zh) * 2020-10-20 2022-11-15 山东亦贝数据技术有限公司 一种智能网联汽车安全预警系统及预警方法
WO2022141114A1 (zh) * 2020-12-29 2022-07-07 深圳市大疆创新科技有限公司 视线估计方法、装置、车辆及计算机可读存储介质
DE102021202790A1 (de) 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Insassenzustandsüberwachung in einem Kraftfahrzeug
JP2022169359A (ja) * 2021-04-27 2022-11-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
WO2022256877A1 (en) * 2021-06-11 2022-12-15 Sdip Holdings Pty Ltd Prediction of human subject state via hybrid approach including ai classification and blepharometric analysis, including driver monitoring systems
WO2023032617A1 (ja) * 2021-08-30 2023-03-09 パナソニックIpマネジメント株式会社 判定システム、判定方法、及び、プログラム
US11878707B2 (en) * 2022-03-11 2024-01-23 International Business Machines Corporation Augmented reality overlay based on self-driving mode

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06156262A (ja) * 1992-11-18 1994-06-03 Nissan Motor Co Ltd 車両の予防安全装置
JP2008065776A (ja) * 2006-09-11 2008-03-21 Toyota Motor Corp 居眠り検知装置、居眠り検知方法
JP2008176510A (ja) * 2007-01-17 2008-07-31 Denso Corp 運転支援装置
JP2009037415A (ja) * 2007-08-01 2009-02-19 Toyota Motor Corp ドライバ状態判別装置、および運転支援装置
JP2010238134A (ja) * 2009-03-31 2010-10-21 Saxa Inc 画像処理装置及びプログラム
JP2010257072A (ja) * 2009-04-22 2010-11-11 Toyota Motor Corp 意識状態推定装置
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
JP2012084068A (ja) * 2010-10-14 2012-04-26 Denso Corp 画像解析装置
JP2015133050A (ja) * 2014-01-15 2015-07-23 みこらった株式会社 自動運転車
WO2015124552A1 (en) * 2014-02-18 2015-08-27 Jaguar Land Rover Limited Autonomous driving system and method for same
JP2016115356A (ja) * 2014-12-12 2016-06-23 ソニー株式会社 自動運転制御装置および自動運転制御方法、並びにプログラム
JP2017019436A (ja) * 2015-07-13 2017-01-26 トヨタ自動車株式会社 自動運転システム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2546415B2 (ja) * 1990-07-09 1996-10-23 トヨタ自動車株式会社 車両運転者監視装置
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
JP2005050284A (ja) * 2003-07-31 2005-02-24 Toyota Motor Corp 動き認識装置および動き認識方法
JP2005173635A (ja) * 2003-12-05 2005-06-30 Fujitsu Ten Ltd 居眠り検出装置、カメラ、光遮断センサおよびシートベルトセンサ
JP2006123640A (ja) * 2004-10-27 2006-05-18 Nissan Motor Co Ltd ドライビングポジション調整装置
JP4333797B2 (ja) 2007-02-06 2009-09-16 株式会社デンソー 車両用制御装置
JP5224280B2 (ja) * 2008-08-27 2013-07-03 株式会社デンソーアイティーラボラトリ 学習データ管理装置、学習データ管理方法及び車両用空調装置ならびに機器の制御装置
JP5163440B2 (ja) 2008-11-19 2013-03-13 株式会社デンソー 眠気判定装置、プログラム
JP5493593B2 (ja) 2009-08-26 2014-05-14 アイシン精機株式会社 眠気検出装置、眠気検出方法、及びプログラム
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
CN101941425B (zh) * 2010-09-17 2012-08-22 上海交通大学 对驾驶员疲劳状态的智能识别装置与方法
JP2014515847A (ja) * 2011-03-25 2014-07-03 ティーケー ホールディングス インク. 運転者覚醒度判定システム及び方法
JP2013058060A (ja) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd 人物属性推定装置、人物属性推定方法及びプログラム
CN102426757A (zh) * 2011-12-02 2012-04-25 上海大学 基于模式识别的安全驾驶监控系统和方法
CN102542257B (zh) * 2011-12-20 2013-09-11 东南大学 基于视频传感器的驾驶人疲劳等级检测方法
CN102622600A (zh) * 2012-02-02 2012-08-01 西南交通大学 基于面像与眼动分析的高速列车驾驶员警觉度检测方法
JP2015099406A (ja) * 2012-03-05 2015-05-28 アイシン精機株式会社 運転支援装置
JP5879188B2 (ja) * 2012-04-25 2016-03-08 日本放送協会 顔表情解析装置および顔表情解析プログラム
JP5807620B2 (ja) * 2012-06-19 2015-11-10 トヨタ自動車株式会社 運転支援装置
US9854159B2 (en) * 2012-07-20 2017-12-26 Pixart Imaging Inc. Image system with eye protection
JP5789578B2 (ja) * 2012-09-20 2015-10-07 富士フイルム株式会社 眼の開閉判断方法及び装置、プログラム、並びに監視映像システム
JP6221292B2 (ja) 2013-03-26 2017-11-01 富士通株式会社 集中度判定プログラム、集中度判定装置、および集中度判定方法
JP2015194798A (ja) * 2014-03-31 2015-11-05 日産自動車株式会社 運転支援制御装置
CN106462800A (zh) * 2014-04-11 2017-02-22 谷歌公司 使卷积神经网络的训练并行化
JP6273994B2 (ja) * 2014-04-23 2018-02-07 株式会社デンソー 車両用報知装置
JP6397718B2 (ja) * 2014-10-14 2018-09-26 日立オートモティブシステムズ株式会社 自動運転システム
JP6403261B2 (ja) * 2014-12-03 2018-10-10 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
JP6552316B2 (ja) * 2015-07-29 2019-07-31 修一 田山 車輌の自動運転システム
CN105139070B (zh) * 2015-08-27 2018-02-02 南京信息工程大学 基于人工神经网络和证据理论的疲劳驾驶评价方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06156262A (ja) * 1992-11-18 1994-06-03 Nissan Motor Co Ltd 車両の予防安全装置
JP2008065776A (ja) * 2006-09-11 2008-03-21 Toyota Motor Corp 居眠り検知装置、居眠り検知方法
JP2008176510A (ja) * 2007-01-17 2008-07-31 Denso Corp 運転支援装置
JP2009037415A (ja) * 2007-08-01 2009-02-19 Toyota Motor Corp ドライバ状態判別装置、および運転支援装置
JP2010238134A (ja) * 2009-03-31 2010-10-21 Saxa Inc 画像処理装置及びプログラム
JP2010257072A (ja) * 2009-04-22 2010-11-11 Toyota Motor Corp 意識状態推定装置
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
JP2012084068A (ja) * 2010-10-14 2012-04-26 Denso Corp 画像解析装置
JP2015133050A (ja) * 2014-01-15 2015-07-23 みこらった株式会社 自動運転車
WO2015124552A1 (en) * 2014-02-18 2015-08-27 Jaguar Land Rover Limited Autonomous driving system and method for same
JP2016115356A (ja) * 2014-12-12 2016-06-23 ソニー株式会社 自動運転制御装置および自動運転制御方法、並びにプログラム
JP2017019436A (ja) * 2015-07-13 2017-01-26 トヨタ自動車株式会社 自動運転システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7347918B2 (ja) 2017-11-20 2023-09-20 日本無線株式会社 水位予測方法、水位予測プログラム及び水位予測装置
JP7372010B2 (ja) 2018-05-23 2023-10-31 モビディウス リミテッド 深層学習システム
WO2021200341A1 (ja) * 2020-03-31 2021-10-07 いすゞ自動車株式会社 許否決定装置
JP2021163124A (ja) * 2020-03-31 2021-10-11 いすゞ自動車株式会社 許否決定装置
JP7351253B2 (ja) 2020-03-31 2023-09-27 いすゞ自動車株式会社 許否決定装置

Also Published As

Publication number Publication date
JP2018152038A (ja) 2018-09-27
CN110268456A (zh) 2019-09-20
WO2018168039A1 (ja) 2018-09-20
JP2018152037A (ja) 2018-09-27
DE112017007252T5 (de) 2019-12-19
JP6264494B1 (ja) 2018-01-24
JP2018152034A (ja) 2018-09-27
JP6264492B1 (ja) 2018-01-24
US20190370580A1 (en) 2019-12-05
WO2018167991A1 (ja) 2018-09-20
WO2018168040A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6264495B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
WO2019155873A1 (ja) 評価装置、動作制御装置、評価方法、及び評価プログラム
JP6577642B2 (ja) 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
JP6815486B2 (ja) 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
CN112673378B (zh) 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序
WO2019161766A1 (en) Method for distress and road rage detection
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
US20190246036A1 (en) Gesture- and gaze-based visual data acquisition system
WO2019136449A2 (en) Error correction in convolutional neural networks
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
US20230038039A1 (en) In-vehicle user positioning method, in-vehicle interaction method, vehicle-mounted apparatus, and vehicle
JP5187517B2 (ja) 情報提供装置、情報提供方法およびプログラム
JP7003400B2 (ja) 対話制御システム
US10816800B2 (en) Electronic device and method of controlling the same
CN109062402B (zh) 一种基于可穿戴设备的水下拍照方法及可穿戴设备
WO2018168038A1 (ja) 運転者の着座判定装置
KR102499379B1 (ko) 전자 장치 및 이의 피드백 정보 획득 방법
WO2019102525A1 (ja) 異常検知装置及び異常検知方法
CN114760417A (zh) 一种图像拍摄方法和装置、电子设备和存储介质
JP7348005B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2021126911A (ja) 環境情報提供システム、環境情報提供方法、及びプログラム
CN116434204A (zh) 一种基于PIPNet网络改进的驾驶员疲劳检测方法、设备及存储介质
JP2018153570A (ja) 心情推定装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171204

R150 Certificate of patent or registration of utility model

Ref document number: 6264495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150