JPWO2020174601A1 - 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 - Google Patents

覚醒度推定装置、自動運転支援装置および覚醒度推定方法 Download PDF

Info

Publication number
JPWO2020174601A1
JPWO2020174601A1 JP2021501448A JP2021501448A JPWO2020174601A1 JP WO2020174601 A1 JPWO2020174601 A1 JP WO2020174601A1 JP 2021501448 A JP2021501448 A JP 2021501448A JP 2021501448 A JP2021501448 A JP 2021501448A JP WO2020174601 A1 JPWO2020174601 A1 JP WO2020174601A1
Authority
JP
Japan
Prior art keywords
occupant
upper eyelid
arousal level
estimation device
alertness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021501448A
Other languages
English (en)
Other versions
JP7109649B2 (ja
Inventor
和樹 國廣
和樹 國廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020174601A1 publication Critical patent/JPWO2020174601A1/ja
Application granted granted Critical
Publication of JP7109649B2 publication Critical patent/JP7109649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Automation & Control Theory (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Mechanical Engineering (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Mathematical Physics (AREA)
  • Anesthesiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

覚醒度推定装置(10)において、顔画像取得部(11)は、車両の乗員の顔を撮影した画像である顔画像を取得する。上瞼開度算出部(12)は、顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて上瞼の開度を算出する。上瞼の開度が予め定められた閾値より小さいとき、下方視判定部(13)が、顔画像から検出した上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて乗員が下方視状態か否かを判定する。上瞼の開度が閾値より小さくなり、且つ、乗員が下方視状態でないと判定されると、覚醒度推定装置(10)の覚醒度推定部(14)が、乗員の覚醒度が低下したと推定する。

Description

本発明は車両の乗員の覚醒度を推定する技術に関するものである。
車載カメラで撮影した運転者の顔の画像から求めた目の開度に基づいて、運転者の覚醒度(眠気の有無)を推定する覚醒度推定装置が知られている(例えば特許文献1)。
運転者は、車外前方を見るだけでなく、車内のメータやナビゲーション装置の画面などを見るために視線を下方へ向けることがある(以下、視線を下方へ向けることを「下方視」という)。下方視時の目の開度は、覚醒度が低下したときの目の開度に近い値になるため、覚醒度推定装置においては、運転者が下方視したときに、覚醒度が低下したと誤判定されるのを防止することが課題になる。
特許文献1の覚醒度推定装置は、運転者の目の開度から覚醒度を推定するとともに、運転者が下方視状態か否かの判定を行い、運転者が下方視状態と判定された場合に、目の開度から推定した運転者の覚醒度を、覚醒度を高くする方向へ補正することによって、上記誤判定を防止している。
特開2008−171065号公報 特開2011−048531号公報 特開2007−241937号公報
特許文献1の覚醒度推定装置では、上瞼の輪郭線の最高点と下瞼の輪郭線の最下点との間の距離に基づいて運転者の目の開度が算出され、上瞼の輪郭線および下瞼の輪郭線の形状に基づいて運転者が下方視状態か否かが判定される。一般に、下瞼の輪郭線は上瞼の輪郭線に比べて不明瞭であり、下瞼の輪郭線を高い精度で検出するのは難しい。そのため、特許文献1の手法では、算出される目の開度の誤差が大きくなり、その結果、運転者の覚醒度の推定結果の信頼性が低くなることが懸念される。なお、特許文献1では、運転者の眼球内に下瞼の影を投影させる光源を車内に設置し、その影をカメラで撮影することによって、下瞼の輪郭線の検出精度の向上を図っている。
本発明は以上のような課題を解決するためになされたものであり、車両の乗員の覚醒度を高い精度で推定可能な覚醒度推定装置を提供することを目的とする。
本発明に係る覚醒度推定装置は、車両の乗員の顔を撮影した画像である顔画像を取得する顔画像取得部と、顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて上瞼の開度を算出する上瞼開度算出部と、上瞼の開度が予め定められた開度閾値より小さいときに、顔画像から検出した上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて乗員が下方視状態か否かを判定する下方視判定部と、上瞼の開度が開度閾値より小さくなり、且つ、乗員が下方視状態でないと判定されると、乗員の覚醒度が低下したと推定する覚醒度推定部と、を備える。
本発明において、車両の乗員の覚醒度は、乗員の上瞼の開度および当該乗員が下方視状態か否かの判定(下方視判定)の結果に基づいて推定される。上瞼の開度は、下瞼の位置を用いずに算出できるため高い精度で算出できる。下方視判定には下瞼の輪郭線の位置が用いられるが、下方視判定は、上瞼の開度が小さい状態、すなわち、下瞼が膨らみを帯びて輪郭線が明瞭になった状態で行われるため、高い精度で行うことができる。その結果、乗員の覚醒度の推定精度も高いものとなる。
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る覚醒度推定装置の構成を示すブロック図である。 実施の形態1に係る覚醒度推定装置の動作を示すフローチャートである。 実施の形態1に係る覚醒度推定装置の変更例を示すブロック図である。 覚醒度推定装置のハードウェア構成例を示す図である。 覚醒度推定装置のハードウェア構成例を示す図である。 実施の形態2に係る自動運転支援装置の構成を示すブロック図である。
<実施の形態1>
図1は、実施の形態1に係る覚醒度推定装置10の構成を示すブロック図である。本実施の形態では、覚醒度推定装置10は車両に搭載されているものと仮定する。ただし、覚醒度推定装置10は、車両に常設されるものに限られず、例えば、携帯電話やスマートフォン、ポーダブルナビゲーション装置など、車両に持ち込み可能な携帯型のデバイスに構築されていてもよい。また、覚醒度推定装置10の一部または全部が、車両との通信が可能なサーバー上に構築されていてもよい。
図1のように、覚醒度推定装置10は、車両が備えるカメラ21および警告装置22と接続されている。
カメラ21は、車内を撮影するものであり、車両の乗員の顔を撮影可能な位置に設置されている。本実施の形態では、カメラ21は、車両の全座席の乗員の顔を撮影できるだけの撮影範囲を持つ広角カメラであるものとする。ただし、例えば覚醒度推定装置10が運転席の乗員(運転者)の覚醒度のみを推定すればよい場合は、カメラ21の撮影範囲は運転席のみを撮影できる広さでよい。
覚醒度推定装置10は、カメラ21が撮影した乗員の顔の画像(以下「顔画像」という)に基づいて、乗員の覚醒度(眠気の有無)を推定し、その推定結果を警告装置22へ出力する。本実施の形態では、覚醒度推定装置10は、カメラ21で撮影された全乗員の覚醒度を推定するものとする。この場合、覚醒度推定装置10は、各乗員の覚醒度の推定結果とともに、各乗員の座席の位置の情報を出力する。すなわち、覚醒度推定装置10からは、覚醒度が高いと推定される乗員がどの座席にいて、覚醒度が低いと推定される乗員がどの座席にいるのか、といった情報が出力される。
警告装置22は、覚醒度推定装置10が推定した乗員の覚醒度に応じて、車内へ警報を発するものであり、警告音や警告メッセージを発するスピーカ、警報画面を表示するディスプレイなどを備えている。本実施の形態では、警告装置22は、運転席の乗員(運転者)の覚醒度が低下したと推定された場合に警告を発するものとする。ただし、警告装置22の動作内容に制約はなく、例えば、運転者以外の乗員の覚醒度が低下したと推定された場合にも、警告を発してもよい。
図1のように、覚醒度推定装置10は、顔画像取得部11、上瞼開度算出部12、下方視判定部13および覚醒度推定部14を備えている。
顔画像取得部11は、カメラ21が撮影した乗員の顔画像を取得する。本実施の形態では、カメラ21は車両の全座席を撮影できる広角カメラであるため、顔画像取得部11は、顔認識技術を用いて、カメラ21が撮影した車内の画像から乗員ごとの顔画像を抽出する。
上瞼開度算出部12は、顔画像取得部11が取得した乗員の顔画像から、乗員の目頭の位置、目尻の位置および上瞼の最高点の位置を検出し、それらの位置関係に基づいて、上瞼の開き具合(以下「開度」という)を算出する。より具体的には、上瞼開度算出部12は、目頭と目尻とを結ぶ直線と上瞼の最高点との間の距離である第1の距離に基づいて、上瞼の開度を算出する。先に述べたように、下瞼の輪郭線は、上瞼の輪郭線に比べ、高い精度で検出するのは難しい。上瞼開度算出部12が算出する上瞼の開度は、下瞼の輪郭線の情報を用いずに算出できるため、その精度は高いものとなる。なお、上瞼の最高点とは、目尻と目頭とを結ぶ直線から最も離れている上瞼の点(頂点)である。
本実施の形態では、上瞼開度算出部12は、第1の距離を、目頭と目尻との間の距離で除算することで目の扁平率を求め、扁平率を予め定められた基準値で除算して得られる値を、上瞼の開度として算出する。
目の扁平率の基準値は、例えば、目の扁平率の平均的な値として覚醒度推定装置10の製造者が定めた一定の値でよい。あるいは、覚醒度推定装置10が、顔画像を用いた顔認証などによって乗員個人を識別可能な場合には、覚醒度推定装置10に乗員ごとの基準値を登録できるようにしてもよい。乗員ごとに異なる基準値を用いられることで、上瞼の開度の算出結果に、目の大きさの個人差が影響することが抑えられる。
下方視判定部13は、上瞼開度算出部12が算出した乗員の上瞼の開度が予め定められた閾値(以下「開度閾値」という)より小さい場合に、当該乗員が下方視状態か否かを判定する下方視判定を行う。具体的には、下方視判定部13は、上瞼の開度が開度閾値よりも小さい場合に、顔画像取得部11が取得した顔画像から、上瞼の最高点の位置と、下瞼の輪郭線と、上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点(以下「下瞼の特定点」という)の位置とを検出し、上瞼の最高点と下瞼の特定点との位置関係に基づいて、乗員が下方視状態か否かを判定する。なお、下瞼の特定点は、目頭と目尻とを結ぶ直線に向かって上瞼の最高点から下した垂線と下瞼の輪郭線との交点でもよい。
一般に、人が目を伏せたり目を細めたりして上瞼の開度が小さくなった状態では、下瞼が膨らみを帯び、下瞼の輪郭線が明瞭になるため、顔画像から下瞼の輪郭線を高い精度で検出できる。下方視判定部13が行う下方視判定には、下瞼の輪郭線の位置が必要であるが、下方視判定は、上瞼の開度が小さいときに行われるため、下方視判定には、高い精度で得られた下瞼の輪郭線の位置が用いられる。従って、下方視判定部13が行う下方視判定は、精度の高いものとなる。
本実施の形態では、下方視判定部13は、上瞼の開度が開度閾値よりも小さい場合に、上瞼の最高点と下瞼の特定点との間の距離である第2の距離とに基づいて、乗員が下方視状態か否かを判定する。すなわち、下方視判定部13は、上瞼の開度が開度閾値より小さく、且つ、第2の距離が予め定められた閾値(以下「距離閾値」という)より大きい場合に、乗員が下方視状態であると判定する。
以下、「上瞼の開度が開度閾値より小さく、且つ、第2の距離が距離閾値より大きい」という条件を「下方視条件」ということもある。また、第2の距離を「上下瞼間距離」ということもある。
距離閾値は、例えば、下方視に最低限必要とされる上下瞼間距離の大きさとして覚醒度推定装置10の製造者が定めた一定の値もよい。あるいは、覚醒度推定装置10が、顔画像を用いた顔認証などによって乗員個人を識別可能な場合には、覚醒度推定装置10に乗員ごとの距離閾値を登録できるようにしてもよい。乗員ごとに異なる距離閾値が用いられることで、下方視判定の結果に、下方視時の目の大きさの個人差が影響することが抑えられる。
覚醒度推定部14は、上瞼開度算出部12が算出した乗員の上瞼の開度、および、下方視判定部13が行った当該乗員の下方視判定の結果に基づいて、当該乗員の覚醒度が低下したか否かを推定する。具体的には、覚醒度推定部14は、乗員の上瞼の開度が開度閾値より小さくなり、且つ、当該乗員が下方視状態でないと判定されるときに、当該乗員の覚醒度が低下したと推定する。上記のように、上瞼開度算出部12は乗員の上瞼の開度を高い精度で算出でき、下方視判定部13は下方視判定を高い精度で行うことができるため、覚醒度推定部14による乗員の覚醒度推定は精度の高いものとなる。
以下、「乗員の上瞼の開度が開度閾値より小さくなり、且つ、当該乗員が下方視状態でない」という条件を「覚醒度低下条件」ということもある。
このように、実施の形態1に係る覚醒度推定装置10によれば、乗員が下方視状態か否かを考慮して、乗員の覚醒度を高い精度で推定することができる。また、比較的困難な処理となる下瞼の輪郭線の検出は、少なくとも下方視判定が行われるとき(つまり、上瞼の開度が開度閾値より小さいとき)に行われればよいことから、覚醒度推定装置10の処理負荷の低減にも寄与できる。
図2は、実施の形態1に係る覚醒度推定装置10の動作を示すフローチャートである。以下、図2を参照しつつ、覚醒度推定装置10の動作を説明する。
車両のイグニッションがオンになり、覚醒度推定装置10が起動すると、まず、顔画像取得部11が、カメラ21が撮影した乗員の顔画像を取得する(ステップS101)。ここでは説明の簡単のため、カメラ21が撮影した画像には、1人の乗員の顔画像だけが含まれているものと仮定する。ただし、本実施の形態のようにカメラ21が広角カメラであれば、ステップS101で複数の乗員の顔画像が取得されることもある。その場合、以下のステップS102〜S108の処理は、それぞれの乗員の顔画像に対して実施される。
次に、上瞼開度算出部12が、ステップS101で取得された乗員の顔画像から、乗員の目頭の位置、目尻の位置および上瞼の最高点の位置を検出し、それらの位置関係に基づいて、乗員の上瞼の開度を算出する(ステップS102)。
ステップS102で算出された乗員の上瞼の開度が予め定められた開度閾値より小さい場合(ステップS103でYES)、下方視判定部13が、ステップS101で取得された乗員の顔画像に基づいて、当該乗員が下方視状態か否かを判定する下方視判定を行う(ステップS104)。
ステップS104の下方視判定の結果、乗員が下方視状態でないと判定された場合(ステップS105でNO)、覚醒度推定部14は、当該乗員の覚醒度が低下したと推定する(ステップS106)。
一方、ステップS102で算出された乗員の上瞼の開度が開度閾値より大きい場合(ステップS103でNO)、または、ステップS104で乗員が下方視状態であると判定された場合(ステップS105でYES)、覚醒度推定部14は、当該乗員の覚醒度は高いと推定する(ステップS107)。
ステップS106またはS107による乗員の覚醒度の推定結果は、警告装置22に出力される(ステップS108)。その結果、警告装置22からは、乗員の覚醒度の推定結果に応じた警告が発せられる。
覚醒度推定装置10は、以上のフローを繰り返し実行する。なお、当該フローは、例えば、覚醒度推定装置10の起動後(車両のイグニッションがオンになった後)、常時実行されてもよいし、車両の走行中のみに実行される(車両の停止中は実行されない)ようにしてもよい。当該フローが常時実行される場合、車両が動き出す前から乗員の覚醒度が推定されるため、車両の安全性の向上に寄与できる。ただし、一般的には、車両の停止中に乗員の覚醒度を推定する必要性はあまり高くないため、当該フローが車両の走行中のみに実行されるようにして、覚醒度推定装置10の処理負荷の低減および消費電力の低減を図ってもよい。
[変更例]
実施の形態1の覚醒度推定装置10では、覚醒度推定部14が、乗員の覚醒度の推定結果を警告装置22に出力していたが、その出力先は警告装置22に限られず、任意の装置でよい。例えば、図3のように、覚醒度推定部14による乗員の覚醒度の推定結果が、車両の自動運転を行うECU(Electronic Control Unit)である自動運転制御装置23にも入力されてもよい。
図3の自動運転制御装置23の動作としては、例えば、覚醒度推定部14が運転席の乗員(運転者)の覚醒度が低下したと推定し、警告装置22が警告を発したにもかかわらず、運転者の覚醒度が低下したままであった場合に、自動運転制御装置23が、車両を自動的に安全な場所(例えば、幅の広い路肩やパーキングエリアなど)へ退避させて停止させるといった動作が考えられる。
また、実施の形態1では、下方視判定部13は、乗員が上瞼の開度が開度閾値より小さく、且つ、当該乗員の上下瞼間距離(第2の距離)が距離閾値より大きくなるという条件(下方視条件)が満たされると、直ちに、当該乗員が下方視状態であると判定した。しかし、下方視判定部13は、乗員の目が下方視条件を満たした時間がある程度長くなったときに、当該乗員が下方視状態であると判定してもよい。具体的には、下方視条件が満たされた時間の一定時間に占める割合が予め定められた閾値(時間閾値)を超えたときに、当該乗員が下方視状態であると判定してもよい。それにより、例えばノイズの影響などによる、下方視の誤検出を抑制でき、覚醒度の推定精度のさらなる向上に寄与できる。
乗員の顔の向きと視線の方向との間には相関がある。具体的には、乗員が下方視するとき、目や瞼が動くだけでなく、顔の向きが視線の方向へ向けて動く傾向がある。そのため、下方視判定部13は、顔画像から検出した乗員の顔の向きを加味して、乗員が下方視状態か否かを判定してもよい。例えば、下方視判定部13が、乗員の目が下方視条件を満たし、なお且つ、当該乗員の顔の向きが下方向(特に、車内のメータやナビゲーション装置の画面がある方向)へ向けて動いた場合に、当該乗員が下方視状態であると判定するようにしてもよい。
また、乗員の顔の向きと覚醒度との間にも相関がある。具体的には、乗員の覚醒度が下がると、顔の動きが少なくなり、顔の向きがほぼ一定になる傾向がある。そのため、覚醒度推定部14は、顔画像から検出した乗員の顔の向きを加味して、乗員の覚醒度を推定してもよい。例えば、覚醒度推定部14が、乗員の上瞼の開度が開度閾値より小さくなり、且つ、当該乗員が下方視状態でないという条件(覚醒度低下条件)が満たされ、なお且つ、当該乗員の顔の向きの変動が予め定められた閾値よりも小さい場合に、当該乗員の覚醒度が低下したと推定するようにしてもよい。
乗員は、シフトレバーやナビゲーション装置など、車両に搭載された機器(車載機器)を操作するときに、下方視することが多い。そのため、下方視判定部13は、車載機器の操作状況を加味して、乗員が下方視状態か否かを判定してもよい。例えば、下方視判定部13が、乗員の目が下方視条件を満たし、なお且つ、当該乗員が顔よりも低い位置にある車載機器の操作を行った場合に、乗員が下方視状態であると判定するようにしてもよい。なお、車載機器の動作状況の情報は、例えば車両のECUなどから取得することができる。
また、車載機器を操作している乗員は、覚醒度が高いと考えられる。そのため、覚醒度推定部14は、車載機器の操作状況を加味して、乗員の覚醒度を推定してもよい。例えば、覚醒度推定部14が、乗員の目が覚醒度低下条件を満たし、なお且つ、当該乗員が車載機器の操作を行っていない場合に、当該乗員の覚醒度が低下したと推定するようにしてもよい。
[ハードウェア構成例]
図4および図5は、それぞれ覚醒度推定装置10のハードウェア構成の例を示す図である。図1に示した覚醒度推定装置10の構成要素の各機能は、例えば図4に示す処理回路50により実現される。すなわち、覚醒度推定装置10は、車両の乗員の顔を撮影した画像である顔画像を取得し、顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて上瞼の開度を算出し、上瞼の開度が予め定められた開度閾値より小さいときに、顔画像から検出した上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて乗員が下方視状態か否かを判定し、上瞼の開度が開度閾値より小さくなり、且つ、乗員が下方視状態でないと判定されると、乗員の覚醒度が低下したと推定するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。覚醒度推定装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
図5は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における覚醒度推定装置10のハードウェア構成の例を示している。この場合、覚醒度推定装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、覚醒度推定装置10は、プロセッサ51により実行されるときに、車両の乗員の顔を撮影した画像である顔画像を取得する処理と、顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて上瞼の開度を算出する処理と、上瞼の開度が予め定められた開度閾値より小さいときに、顔画像から検出した上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて乗員が下方視状態か否かを判定する処理と、上瞼の開度が開度閾値より小さくなり、且つ、乗員が下方視状態でないと判定されると、乗員の覚醒度が低下したと推定する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、覚醒度推定装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、覚醒度推定装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、覚醒度推定装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、覚醒度推定装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
<実施の形態2>
実施の形態2では、実施の形態1で示した覚醒度推定装置10を、車両の自動運転を支援する自動運転支援装置に適用した例を示す。
ここで、自動車の自動運転の自動化レベル(自動運転レベル)の定義について説明する。SAE(Society of Automotive Engineers)International のJ3016(2016年9月)、および、その日本語参考訳であるJASO TP18004(2018年2月)によると、自動運転システムの自動運転レベルは次のように定義されている。
レベル0(運転自動化なし):運転者が一部又は全ての動的運転タスクを実行
レベル1(運転支援):システムが縦方向又は横方向のいずれかの車両運動制御のサブタスクを限定領域において実行
レベル2(部分運転自動化):システムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行
レベル3(条件付運転自動化):システムが全ての動的運転タスクを限定領域において実行するが、作動継続が困難な場合は、システムからの介入要求等に運転者が適切に応答
レベル4(高度運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において実行
レベル5(完全運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を無制限に(すなわち限定領域内ではない)実行
なお、「動的運転タスク」とは、道路交通において車両を操作する際にリアルタイムで行う必要がある全ての操作上及び戦術上の機能(行程計画並びに経由地の選択などの戦略上の機能は除く)をいう。また、「限定領域」とは、システム又はその機能が作動するように設計されている特定の条件(地理的制約、道路面の制約、環境的制約、交通の制約、速度上の制約、時間的な制約などを含む)をいう。
図6は、実施の形態2に係る自動運転支援装置30の構成を示すブロック図である。図6において、図1に示したものと同様に機能する要素には、図1と同一の参照符号を付しており、ここではそれらの説明は省略する。
図6のように、自動運転支援装置30は、カメラ21、自動運転制御装置23および通知装置24と接続されている。自動運転制御装置23は、車両の自動運転を行うECUであり、上記の「システム」に相当する。本実施の形態では、自動運転制御装置23は、少なくともレベル3の自動運転を行うものとする。通知装置24は、車両の乗員に対する通知を行うものであり、通知音や通知メッセージの音声を発するスピーカ、警報画面を表示するディスプレイなどを備えている。
また、自動運転支援装置30は、覚醒度推定装置10と、乗員選択部31とを備えている。覚醒度推定装置10は、実施の形態1で説明したものと同様に車両の乗員の覚醒度を推定し、その推定結果を乗員選択部31へ出力する。
乗員選択部31は、自動運転支援装置30からの介入要求に応じて、車両の運転に介入させる乗員(運転者にする乗員)を選択する。介入要求は、自動運転支援装置30がレベル3の自動運転を実行しており、自動運転の継続が困難になった場合に、自動運転支援装置30から乗員選択部31へ入力される。乗員選択部31は、自動運転支援装置30からの介入要求を受けると、覚醒度推定装置10による乗員の覚醒度の推定結果を確認し、覚醒度が高いと推定された乗員を、車両の運転に介入させる乗員として選択する。
乗員選択部31による選択結果は、通知装置24に入力される。通知装置24は、乗員選択部31が選択した乗員に対し、車両の運転へ介入を指示するための通知を行う。
乗員選択部31が運転席にいる乗員を選択した場合は、車両を停止させることなく、車両の運転権限をその乗員へ移行することができる。しかし、乗員選択部31が運転席以外の乗員を選択した場合は、自動運転制御装置23が車両を安全な場所に停止させ、選択された乗員が運転席へ移動してから、その乗員に運転権限を移行すればよい。覚醒度が高いと推定された乗員が複数いる場合、乗員選択部31はそのうちの誰を選択してもよいが、運転席にいる乗員を優先的に選択するようにしてもよい。
このように、実施の形態2の自動運転支援装置30は、自動運転支援装置30が乗員へ運転権限を引き渡す、いわゆるハンドオーバーの処理を支援し、覚醒度の低い乗員に運転権限が移行されることを防止することができる。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
10 覚醒度推定装置、11 顔画像取得部、12 上瞼開度算出部、13 下方視判定部、14 覚醒度推定部、21 カメラ、22 警告装置、23 自動運転制御装置、24 通知装置、30 自動運転支援装置、31 乗員選択部、50 処理回路、51 プロセッサ、52 メモリ。

Claims (17)

  1. 車両の乗員の顔を撮影した画像である顔画像を取得する顔画像取得部と、
    前記顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて前記上瞼の開度を算出する上瞼開度算出部と、
    前記上瞼の開度が予め定められた開度閾値より小さいときに、前記顔画像から検出した前記上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて前記乗員が下方視状態か否かを判定する下方視判定部と、
    前記上瞼の開度が前記開度閾値より小さくなり、且つ、前記乗員が下方視状態でないと判定されると、前記乗員の覚醒度が低下したと推定する覚醒度推定部と、
    を備える覚醒度推定装置。
  2. 前記上瞼開度算出部は、前記目頭と前記目尻とを結ぶ直線と前記上瞼の最高点との間の距離である第1の距離に基づいて、前記上瞼の開度を算出する、
    請求項1に記載の覚醒度推定装置。
  3. 前記上瞼開度算出部は、前記第1の距離を前記目頭と前記目尻との間の距離で除算して得られる扁平率を予め定められた基準値で除算して得られる値を、前記上瞼の開度として算出する、
    請求項2に記載の覚醒度推定装置。
  4. 前記上瞼開度算出部は、乗員ごとに異なる値の前記基準値を用いる、
    請求項3に記載の覚醒度推定装置。
  5. 前記下方視判定部は、前記上瞼の最高点と当該上瞼の最高点から下ろした鉛直線と前記下瞼の輪郭線との交点との間の距離である第2の距離に基づいて、前記乗員が下方視状態か否かを判定する
    請求項1に記載の覚醒度推定装置。
  6. 前記下方視判定部は、前記上瞼の開度が前記開度閾値より小さく、且つ、前記第2の距離が予め定められた距離閾値より大きい場合に、前記乗員が下方視状態であると判定する
    請求項5に記載の覚醒度推定装置。
  7. 前記下方視判定部は、乗員ごとに異なる値の前記距離閾値を用いる、
    請求項6に記載の覚醒度推定装置。
  8. 前記下方視判定部は、前記上瞼の開度が前記開度閾値より小さく、且つ、前記第2の距離が予め定められた距離閾値より大きくなった時間の一定時間に占める割合が予め定められた時間閾値を超える場合に、前記乗員が下方視状態であると判定する
    請求項5に記載の覚醒度推定装置。
  9. 前記下方視判定部は、乗員ごとに異なる値の前記距離閾値を用いる、
    請求項8に記載の覚醒度推定装置。
  10. 前記下方視判定部は、前記顔画像から検出した前記乗員の顔の向きを加味して、前記乗員が下方視状態か否かを判定する、
    請求項1に記載の覚醒度推定装置。
  11. 前記覚醒度推定部は、前記顔画像から検出した前記乗員の顔の向きを加味して、前記乗員の覚醒度を推定する、
    請求項1に記載の覚醒度推定装置。
  12. 前記下方視判定部は、前記車両に搭載された機器の操作状況を加味して、前記乗員が下方視状態か否かを判定する、
    請求項1に記載の覚醒度推定装置。
  13. 前記覚醒度推定部は、前記車両に搭載された機器の操作状況を加味して、前記乗員の覚醒度を推定する、
    請求項1に記載の覚醒度推定装置。
  14. 前記覚醒度推定部は、前記乗員の覚醒度の推定結果を、前記車両の乗員への警告を行う警告装置へ出力する、
    請求項1に記載の覚醒度推定装置。
  15. 前記覚醒度推定部は、前記乗員の覚醒度の推定結果を、前記車両の自動運転制御装置へ出力する、
    請求項1に記載の覚醒度推定装置。
  16. 車両の自動運転を支援する自動運転支援装置であって、
    請求項1に記載の覚醒度推定装置と、
    前記車両の自動運転の継続が困難になった場合に、前記覚醒度推定部による前記乗員の覚醒度の推定結果に基づいて、前記車両の運転へ介入させる乗員を選択する乗員選択部と、
    を備える自動運転支援装置。
  17. 覚醒度推定装置の顔画像取得部が、車両の乗員の顔を撮影した画像である顔画像を取得し、
    前記覚醒度推定装置の上瞼開度算出部が、前記顔画像から検出した目頭の位置、目尻の位置および上瞼の最高点の位置に基づいて前記上瞼の開度を算出し、
    前記上瞼の開度が予め定められた開度閾値より小さいときに、前記覚醒度推定装置の下方視判定部が、前記顔画像から検出した前記上瞼の最高点の位置および当該上瞼の最高点から下ろした鉛直線と下瞼の輪郭線との交点の位置に基づいて前記乗員が下方視状態か否かを判定し、
    前記上瞼の開度が前記開度閾値より小さくなり、且つ、前記乗員が下方視状態でないと判定されると、前記覚醒度推定装置の覚醒度推定部が、前記乗員の覚醒度が低下したと推定する、
    覚醒度推定方法。
JP2021501448A 2019-02-27 2019-02-27 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 Active JP7109649B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007500 WO2020174601A1 (ja) 2019-02-27 2019-02-27 覚醒度推定装置、自動運転支援装置および覚醒度推定方法

Publications (2)

Publication Number Publication Date
JPWO2020174601A1 true JPWO2020174601A1 (ja) 2021-09-13
JP7109649B2 JP7109649B2 (ja) 2022-07-29

Family

ID=72239557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501448A Active JP7109649B2 (ja) 2019-02-27 2019-02-27 覚醒度推定装置、自動運転支援装置および覚醒度推定方法

Country Status (3)

Country Link
JP (1) JP7109649B2 (ja)
DE (1) DE112019006953T5 (ja)
WO (1) WO2020174601A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6964174B1 (ja) * 2020-11-30 2021-11-10 真旭 徳山 情報処理装置、情報処理方法、及びプログラム
WO2024057356A1 (ja) * 2022-09-12 2024-03-21 三菱電機株式会社 開瞼度検出装置、開瞼度検出方法、および眠気判定システム
WO2024195072A1 (ja) * 2023-03-23 2024-09-26 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及び乗員状態判定プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167806A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2008210285A (ja) * 2007-02-27 2008-09-11 Kyushu Univ 居眠り運転防止装置
JP2009003644A (ja) * 2007-06-20 2009-01-08 Toyota Motor Corp 開眼度判定装置
JP2011048531A (ja) * 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム
JP2018045450A (ja) * 2016-09-14 2018-03-22 いすゞ自動車株式会社 車両制御装置
JP2018508870A (ja) * 2015-01-19 2018-03-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両の運転者の瞬間睡眠を検知するための方法および装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167806A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2008210285A (ja) * 2007-02-27 2008-09-11 Kyushu Univ 居眠り運転防止装置
JP2009003644A (ja) * 2007-06-20 2009-01-08 Toyota Motor Corp 開眼度判定装置
JP2011048531A (ja) * 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム
JP2018508870A (ja) * 2015-01-19 2018-03-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両の運転者の瞬間睡眠を検知するための方法および装置
JP2018045450A (ja) * 2016-09-14 2018-03-22 いすゞ自動車株式会社 車両制御装置

Also Published As

Publication number Publication date
JP7109649B2 (ja) 2022-07-29
DE112019006953T5 (de) 2021-12-16
WO2020174601A1 (ja) 2020-09-03

Similar Documents

Publication Publication Date Title
CN112046500B (zh) 自动驾驶装置和方法
JP7109649B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
CN111319628A (zh) 用于评估错误威胁检测的方法和系统
US11256928B2 (en) Information providing apparatus and methods for a vehicle
RU2720591C1 (ru) Способ отображения информации и устройство управления отображением
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
CN112046502B (zh) 自动驾驶装置和方法
KR20210037790A (ko) 자율 주행 장치 및 방법
US20200114932A1 (en) Vehicle and method of outputting information therefor
JP7175381B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP7267222B2 (ja) 処理装置、処理方法、報知システム及びプログラム
JP6847323B2 (ja) 視線検出装置および視線検出方法
JP2018075866A (ja) 駐車制御装置の姿勢推定方法、及び姿勢推定装置
JP5424014B2 (ja) 衝突警戒車両検出システム
KR20200133860A (ko) 자율 주행 장치 및 방법
WO2021140583A1 (ja) 眠気推定装置および眠気推定方法
KR20200133445A (ko) 자율 주행 장치 및 방법
JP2017061216A (ja) 車載撮像システム、車両および撮像方法
KR20200133848A (ko) 자율 주행 장치 및 방법
KR20200133852A (ko) 자율 주행 장치 및 방법
WO2021240768A1 (ja) 運転不能判定装置および運転不能判定方法
KR102689148B1 (ko) 자율 주행 장치 및 방법
CN115690748B (zh) 用于占据类预测的方法和用于遮挡值确定的方法
JP7428076B2 (ja) サーバ装置、制御装置、車両、及び情報処理システムの動作方法
US20240246568A1 (en) Vehicle device and vehicle estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7109649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350