JP7204077B2 - 脈波検出装置、車両装置、及び脈波検出プログラム - Google Patents
脈波検出装置、車両装置、及び脈波検出プログラム Download PDFInfo
- Publication number
- JP7204077B2 JP7204077B2 JP2018167724A JP2018167724A JP7204077B2 JP 7204077 B2 JP7204077 B2 JP 7204077B2 JP 2018167724 A JP2018167724 A JP 2018167724A JP 2018167724 A JP2018167724 A JP 2018167724A JP 7204077 B2 JP7204077 B2 JP 7204077B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- pulse wave
- area
- moving image
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
- A61B5/02108—Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8006—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Vascular Medicine (AREA)
- Mechanical Engineering (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
これにより、例えば、車両の運転者の脈波をモニタリングして、より交通安全を推進することができる。
また、特許文献1の技術では、顔の向きが左右に変わることで検出領域が小さくなる場合、顔の中で比較的検出領域を広く取れる部分に検出領域を変更して脈波を推定している。
しかし、照明に対する対象者の位置が一定であれば、脈波を検出することができるが、対象者が動くと対象者から反射する光の輝度が大きく影響を受けるため脈波の測定ができなくなるという問題があった。
(2)請求項2に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得手段と、前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、ことを特徴とする脈波検出装置を提供する。
(3)請求項3に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得手段と、前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、前記取得した領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、前記補正手段は、前記取得した顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域を前記顔領域の大きさに含める、ことを特徴とする脈波検出装置を提供する。
(4)請求項4に記載の発明では、前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する、ことを特徴とする請求項2、又は請求項3に記載の脈波検出装置を提供する。
(5)請求項5に記載の発明では、前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、ことを特徴とする請求項3に記載の脈波検出装置を提供する。
(6)請求項6に記載の発明では、前記顔を赤外線で照明する照明手段と、前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、を具備し、前記動画取得手段は、前記動画撮影手段から前記動画を取得する、ことを特徴とする請求項1から請求項5のうちのいずれか1の請求項に記載の脈波検出装置を提供する。
(7)請求項7に記載の発明では、対象者の顔を赤外線で照明する照明手段と、前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、前記動画撮影手段から前記対象者の顔を撮影した動画を取得する動画取得手段と、前記取得した動画から前記顔が写っている顔領域を取得する領域取得手段と、前記取得した顔領域の輝度を取得する輝度取得手段と、前記取得した動画における、或1のフレーム画像から得られる前記顔の位置を基準とする、他のフレーム画像で得られる前記顔の相対的な前後位置と前記顔領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、前記顔領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、環境明度を取得する環境明度取得手段と、前記取得した環境明度が所定値未満となった場合に、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始する開始手段と、を具備したことを特徴とする脈波検出装置を提供する。
(8)請求項8に記載の発明では、前記環境明度が所定値以上の場合に前記脈波を取得する第2の脈波取得手段を具備し、前記開始手段は、前記取得した環境明度が所定値未満となった場合に、前記第2の脈波取得手段による前記脈波の取得を停止した後、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始することを特徴とする請求項7に記載の脈波検出装置を提供する。
(9)請求項9に記載の発明では、請求項1から請求項8までのうちの何れか1の請求項に記載の脈波検出装置を具備した車両装置を提供する。
(10)請求項10に記載の発明では、対象者の体表面を撮影した動画を取得する動画取得機能と、前記取得した動画から前記体表面が写っている領域を取得する領域取得機能と、前記取得した領域の輝度を取得する輝度取得機能と、前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正機能と、前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得機能と、をコンピュータで実現し、前記体表面は顔であり、前記領域取得機能は、前記領域として顔領域を取得し、前記補正機能は、前記顔の前後位置を前記顔領域の大きさによって取得する、ことを特徴とする脈波検出プログラムを提供する。
図1は、本実施の形態の概要を説明するための図である。
フレーム画像201は、脈波検出の対象者(例えば、車両の運転席に着席している運転者)の顔を運転席前方に設置した赤外線の照明で照らし、これを赤外線カメラで撮影した動画の1フレーム画像を示している。
また、フレーム画像202は、対象者が頭部を後方に動かした際に撮影したフレーム画像を示している。
フレーム画像202で撮影した顔は、照明装置から後方に離れるためフレーム画像201で撮影した顔より輝度が小さくなり、カメラから後方に離れるため顔の大きさも小さくなる。
グラフ204は、動画撮影した顔の補正前の輝度信号Rの時間変化を示している。
時点205では、フレーム画像201から輝度を検出しており、時点206ではフレーム画像202から輝度を検出している。
ところが、グラフ204の場合、輝度の検出中に、時点205から時点206に至る過程で対象者が頭部を後方に動かしたため、顔面部の輝度の連続性が損なわれており、これをフーリエ変換するとグラフ208に示したように脈拍数ピークがノイズに埋もれて顔の前後動による外乱ピークが検出されてしまう。
なお、グラフ208では、縦軸はFFTによる周波数成分のレベルを示しており、横軸は周波数をbpm(beat per minute:1分あたりの脈拍数)単位で示している。
このように輝度と顔の大きさが相関関係を有するために、後述の脈波検出装置1(図2)は、フレーム画像から顔を検出し、顔面の大きさによって顔の輝度を補正する。
これは、顔の輝度は照明と顔の距離に依存するのに対し、照明から顔までの距離を顔の大きさによって間接的に計測していることになる。
補正後の輝度信号R′を周波数領域に変換すると、グラフ212に示したように脈拍数ピークを明確に観測することができる。
このように、脈波検出装置1は、フレーム画像における対象者の顔の大きさと輝度の変化の相関関係を用いて、フレーム画像に写った顔の輝度の大きさを当該顔の大きさにより補正した後、当該補正後の輝度信号から対象者の脈拍数を推定・測定する。
図2は、本実施の形態の脈波検出装置1の構成を示した図である。
脈波検出装置1は、例えば、車両に搭載され、搭乗者(ドライバや助手席の乗客などの対象者)の脈波を監視し、ドライバの体調、緊張状態などの生理的な状態を把握する。
また、医療現場や災害現場などで患者や被災者の脈波を検出・監視するのに用いることもできる。
CPU2は、記憶部10やROM3などに記憶されたプログラムに従って、各種の情報処理や制御を行う中央処理装置である。
本実施の形態では、カメラ8が撮影した動画を画像処理して対象者11の脈波を脈拍数にて検出する。
RAM4は、読み書きが可能なメモリであって、CPU2が動作する際のワーキングメモリを提供する。
本実施の形態では、動画を構成するフレーム画像(1コマの静止画像)を展開して記憶したり、計算結果を記憶したりすることにより、CPU2が、フレーム画像の皮膚部分から脈波を検出するのを支援する。
当該皮膚部分は、顔や手足など体表面が露出しているところならよいが、本実施の形態では、一例として顔の表面(顔面)から脈波を検出する。
入力部6は、表示デバイスに重畳して設置されたタッチパネルなどの入力デバイスを用いて構成されており、画面表示に対するタッチの有無などから各種の情報の入力を受け付ける。
また出力部7は、車両を制御する制御装置などの他の制御機器に出力することができる。出力部7から脈拍数の出力を受けた制御機器では、例えば、ドライバの眠気や緊張状態等を判断し、ドライバに向けた制御、例えば、眠気を覚醒させるためにハンドルやシートを振動させる制御、警告音やメッセージの出力などを行うことが出来る。また、車両に対する制御として、脈拍数に基づいて判断したドライバの緊張状態に応じて、車間距離制御、車速制御、又はブレーキ制御の少なくとも1つを行うことも可能である。例えば、制御機器は、ドライバが所定値を超える高い緊張状態にあると判断した場合には、車間距離を基準値よりも大きくとるように制御し、車速を所定車速以下となるように制御し、所定車速以上であれば自動ブレーキ操作による減速処理等を行う。
カメラ8は、対象者11を所定のフレームレートにて撮影し、これら連続するフレーム画像(静止画像)で構成された動画を出力する。
フレーム画像は、画像を構成する最小単位である画素(ピクセル)の配列により構成されており、各画素は照明9が照射する周波数帯域の赤外線を検出する。
より詳細には、対象者11が顔を前方に移動すると顔がカメラ8に接近するため、顔の大きさが大きくなり、対象者11が顔を後方に移動すると顔がカメラ8から遠ざかるため、顔の大きさが小さくなる。
そのため、対象者11が顔を前方に移動すると顔が照明9に接近して顔で反射する赤外線の輝度が増大し、顔を後方に移動すると顔が照明9から遠ざかって顔で反射する赤外線の輝度が減少する。
また、脈波検出装置1は、赤外線により対象者11の脈波を検出するが、可視光を用いるなど、他の周波数帯域における光を用いてもよい。この場合は、カメラ8と照明9を当該光に適合したもので構成する。
CPU2が脈波検出プログラム12に従って検出した脈波のデータは、RAM4に一時保存され、必要に応じて外部に出力されたり、記憶部10に保存される。
CPU2は、脈波検出プログラム12を実行することにより、動画におけるユーザの皮膚部分の特定、顔の大きさに基づく輝度の補正、及び特定した皮膚部分からの脈波(ここでは脈拍数)の検出を行う。
図3は、脈波検出装置1が行う脈波検出処理の手順を説明するためのフローチャートである。
以下の処理は、CPU2が脈波検出プログラム12に従って行うものである。
まず、CPU2は、最低輝度基準と最高輝度基準をRAM4に記憶することにより、輝度基準を設定する(ステップ5)。
最低輝度基準と最高輝度基準は、フレーム画像から体表面に該当する画素を識別する際の基準となる輝度であって、最適値が予めパラメータとして脈波検出プログラム12に設定されている。
これら顔の輝度を検出するのに適した輝度基準を用いることにより、顔の輝度の検出精度を高めることができる。
後述するように、最低輝度基準と最高輝度基準の範囲にある領域を顔領域として検出すると、一般にいびつな形となる。
これを脈波検出や顔の大きさを検出するのに適した形状に整形するのが数理形態クロージングである。
このように、脈波検出装置1は、顔を赤外線で照明する照明手段と、赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段を備えている。
このように、脈波検出装置1は、対象者11の体表面(ここでは、一例として顔)を撮影した動画を取得する動画取得手段を備えている。
そして、当該動画取得手段は、動画撮影手段(カメラ8)から動画を取得している。
この時間は、後に輝度をフーリエ解析する際の時間軸における時刻を規定するものである。
なお、フレーム画像に画像取得時間が記録されている場合はこれを用いてもよいし、CPU2が自己のクロックを用いて計測した時間を付与してもよい。
より詳細には、図6のフレーム画像31に示したように、CPU2は、矩形32によって顔を検出する。顔の検出アルゴリズムは、顔検出技術で一般的に用いられているものを使用する。
顔を検出できた場合(ステップ30;Y)、CPU2は、脈波の検出に必要なデータを取得する後述のデータ取得処理を行う(ステップ35)。
一方、顔を検出できなかった場合(ステップ30;N)、CPU2は、例えば、顔を検出できなかった旨を示すフラグをRAM4に立てるなどして顔を検出できなかった状況を記録する(ステップ60)。
データ取得期間が終了していない場合(ステップ40;N)、CPU2は、ステップ15に戻って、次のフレーム画像について同様の処理を行う。
データ取得期間は、脈波検出に用いる動画の長さを規定する期間であり、本実施の形態では、一例として、30秒間の動画から脈波を検出する。
より詳細には、CPU2は、RAM4にアクセスして、ステップ35で取得した輝度信号があるか否かを確認することにより当該判断を行う。
ここで顔の相対的な前後位置は、或1のフレーム画像から得られる顔の位置を基準とする他のフレーム画像で得られる顔の位置の前後をいう。この相対的な前後位置は、各フレーム画像から得られるBlobFill45(後述する)の大きさにより求まる。
そして、CPU2はRAM4に記憶した脈拍数を表示部5や出力部7に出力して(ステップ55)、処理を終了する。
まず、CPU2は、図3のステップ25で検出した顔のうち、最も大きい顔を処理対象として選択し、選択結果(即ち、選択した顔を他の顔から識別する情報)をRAM4に記憶する(ステップ105)。
特に、脈波検出装置1を車両の運転者に対して使用する場合、運転席に座っている人物の顔が最も大きく写るため、この処理によって運転者の顔を選択することができる。
ここで、当該楕円マスクを特定するデータは、楕円マスクの形状やフレーム画像における楕円マスクの位置などを特定する座標値などのパラメータで構成されている。
以下では、このような処理を、楕円マスクをRAM4に記憶するなどと略記することにする。
このように、CPU2は、対象者11の顔を内部に包含するように、当該顔を含む楕円領域を設定することにより楕円マスク36を設定する。
なお、本実施の形態では、一例として楕円マスクを用いたが、矩形などの他の形状のマスクを用いることも可能である。
このように、脈波検出装置1は、顔を含む当該顔より大きい顔検出領域(楕円マスクなど)を取得する顔検出領域取得手段を備えている。
輝度マスクは、フレーム画像において、画素輝度が最低輝度基準以上かつ最高輝度基準以下となる画素で構成された領域であり、CPU2は、フレーム画像の各画素の輝度を調べて輝度マスクを作成する。
合計マスクは、輝度マスクのうち、楕円マスクに含まれている部分であり、CPU2は、楕円マスクと輝度マスクの論理積をとってその値が真となる画素によって合計マスクを作成する。
例えば、楕円マスクの位置には、分断された顔が写っている場合や、別のものが写っている場合がある。すなわち、顔の中心部分に対して耳や額などの一部が髪の毛で分断されて写っている場合や、少し離れた位置に手が写っている場合などが存在する。このような場合、顔の中心部分、耳、額、手などが別々の合計マスクとして認識されてしまう。
そこで、各合計マスクの周縁相互の距離が所定閾値以下である一群の合計マスクを、1つ合計マスクとして扱うために塊にまとめている(ステップ125)。
その一方で、顔から少し離れた位置に存在する手の合計マスクの塊を除外して、顔の合計マスクの塊を使用するために、最も大きい塊を選択している(ステップ130)。
このようにCPU2は、合計マスクを塊にまとめてグループ化することにより顔や手などの部位ごとの塊にまとめ、最も大きい塊が顔である可能性が高いので、最も大きい合計マスクを選択している。
そこで、最も大きい合計マスクを選択することにより、このような問題を回避することができる。
BlobマスクとBlobFillの内容は、以下の通りである。
そこで、CPU2は、ステップ10(図3)で記憶した数理形態クロージング用の構成を定義するパラメータをRAM4から読み出し、これに基づいて合計マスク41を脈波検出に適したなめらかな形状42に整形してBlobマスク44を作成する。CPU2は、Blobマスク44を脈波の検出に用いる。
これら閉領域は、顔の面積に含まれるため、CPU2は、これらの閉領域をマスクに含めたBlobFill45を作成し、これを顔の大きさの判定に用いる。
CPU2は、脈波の検出にはBlobマスク44を用い、顔の大きさの検出にはBlobFill45を用いる。
このように、脈波検出装置1が備える補正手段は、顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域をBlobFillによって顔領域の大きさに含める。
評価画像は、フレーム画像のうち、脈波の検出に用いる部分の領域を構成する画像であって、CPU2は、フレーム画像からBlobマスク44に該当する領域をフレーム画像から抜き出すことにより評価画像を作成する。
このように、Blobマスクは、フレーム画像から評価画像を抜き出す抜き型のような働きをしており、CPU2は、評価画像を構成する画素の輝度から脈波を検出する。
そして、当該領域取得手段は、顔検出領域(楕円マスク)における輝度の分布を用いて顔領域を取得している。
そして、CPU2は、RAM4に記憶した輝度の合計値をRAM4に記憶したBlobマスクの画素数で割って、評価画像の輝度の平均値を計算することにより補正前の輝度信号Rを算出してRAM4に記憶する(ステップ160)。
sROIは、フレーム画像に対する測定領域(顔の大きさ)の割合であって、CPU2は、BlobFillの画素数をフレーム画像の画素数で除することによりsROIを計算する。
後述するように、CPU2は、sROIの値によって補正前の輝度信号Rを補正し、補正後の輝度信号R′を生成する。
このように、補正手段は、顔の前後位置を顔領域の大きさによって取得している。
なお、sROIは、フレーム画像に対する測定領域の割合であるところ、フレーム画像の画素数は固定されているため、評価画像の画素数をsROIとすることもできる。
まず、CPU2は、RAM4からデータ取得期間(30秒間)の間に取得した補正前の輝度信号RとsROIを読み出す。
そして、CPU2は、後述するように最小二乗法を用いて輝度信号RとsROIの関係式を算出してRAM4に記憶する(ステップ205)。
そして、CPU2は、輝度信号R′をフーリエ変換して輝度信号R′の周波数成分を算出し、これをRAM4に記憶する(ステップ215)。
そして、CPU2は、当該最大ピークの周波数fを特定し、これを対象者11の脈拍数としてRAM4に記憶して(ステップ225)、メインルーチンにリターンする。
RAM4は、30秒分の輝度信号Rを記憶しており、これを時間の順にR(0)、R(1)、・・・、R(i)、・・・とする。
同様にRAM4が記憶するsROIも時間の順に、sROI(0)、sROI(1)、sROI(2)、・・・、sROI(i)、・・・とする。
輝度信号R(i)とsROI(i)は、同じフレーム画像から取得するため、時間的に対応しており、同時刻での値である。
CPU2は、RAM4に記憶した輝度信号RとsROIからX、Yを生成し、式(6)を計算することにより、β0とβ1を算出する。これによって、輝度信号RとsROIの関係式yi=β0+β1×xiが定まる。
yiとxiは、図7と同じである。ここで、式(7)に示したように、補正後の輝度信号であるR(0)′、R(1)′、・・・、R(i)′、・・・をyi′と表すと、式(8)が成立し、これが輝度信号Rの補正式である。これを行列で表すと式(9)となり、これにyiとxiを代入するとyi′、即ち、補正後の輝度信号R′を計算することができる。
この実験は、対象者11を暗くした屋内に置き、脈波検出装置1で対象者11の脈波を検出したものである。
これにより対象者11を外部から任意に振動させた場合の補正の効果を検証することができる。
これらのデータを式(3)によって直線近似した直線52(回帰直線)がRとsROIの関係式を規定しており、直線52のy切片がβ0、傾きがβ1となる。
グラフ58は、30秒間のsROIの時間変化を表したものである。対象者11を振動させる要因がないため規則正しく変動している。これをフーリエ変換すると顔の前後動による外乱ピーク60が80[bpm]付近に現れる。
グラフ62は、30秒間の間における補正後の輝度信号R′の時間変化を表したものである。これをフーリエ変換すると、65[bpm]付近に脈拍数ピーク64が明確に現れる。
このように、sROIを用いて輝度信号Rを補正すると、外乱に埋もれていた脈拍数信号を外乱から適切にフィルタリングして抽出することができる。
この実験は、対象者11を暗くした車内に置いて、車両を走行させながら脈波検出装置1で対象者11の脈波を検出したものである。
これにより対象者11に外部から振動を加えた場合の補正の効果を検証することができる。
これらのデータを式(3)によって直線近似した直線72がRとsROIの関係式を規定しており、直線72のy切片がβ0、傾きがβ1となる。
グラフ78は、30秒間のsROIの時間変化を表したものである。対象者11が車両走行により揺れるため、グラフ58に比べて不規則で乱雑な信号となっている。これをFFTにてフーリエ変換すると、様々な周波数でピークが現れる。
グラフ82は、30秒間の間における補正後の輝度信号R′の時間変化を表したものである。これをフーリエ変換すると、65[bpm]付近に脈拍数ピーク84が明確に現れる。
このように、車両の走行によって対象者11が揺れ動く場合であっても、sROIを用いて輝度信号Rを補正すると、外乱に埋もれていた脈拍数信号を外乱から適切にフィルタリングして抽出することができる。
実験は走行している暗い車内で行い、30秒間の動画から取得した111個のサンプル(xi、yi)を用いて計測した。
また、本実験では、対象者11の脈拍数を脈波検出装置1で検出すると同時に他の装置で精密に計測しておき、両者の比較から、脈波検出装置1による検出値のエラーが5[bpm]未満であった場合、5[bpm]以上10[bpm]未満であった場合、・・・・の各場合の発生確率(割合)をヒストグラムで表した。
グラフ91に示したように、輝度信号Rを補正しない場合は、最も精度よく計測できている0~5[bpm]のビンが60%であるのに対し、グラフ92に示したように輝度信号Rを補正した場合は84%に達している。
この実験結果により、顔の大きさに応じて輝度を補正する技術は、きわめて有効であることがわかる。
本変形例では、脈波検出装置1を搭載した車両装置について説明する。
説明した脈波検出装置1は、自然光による赤外線が存在する環境下では、これが外乱となるため、夜間での運用に適している。
そのため、当該車両装置は、車外の環境明度が所定の基準値未満となった場合に、脈波検出装置1を駆動して運転者の脈波を検出する。
この場合、当該車両装置は、車外の環境明度が所定の基準値未満になった場合に、脈波の検出を第2の脈波検出装置から脈波検出装置1に切り替える。
これによって、顔の前後位置が変わっても高い脈波の検出精度を実現することができる。
2 CPU
3 ROM
4 RAM
5 表示部
6 入力部
7 出力部
8 カメラ
9 照明
10 記憶部
11 対象者
12 脈波検出プログラム
31、35 フレーム画像
32 矩形
36 楕円マスク
41 合計マスク
42 形状
44 Blobマスク
45 BlobFill
51 散布図
52 直線
53、58、62 グラフ
55、64 脈拍数ピーク
56、60 外乱ピーク
71 散布図
72 直線
73、78、82 グラフ
84 脈拍数ピーク
91、92 グラフ
201、202 フレーム画像
204、208、210、212 グラフ
205、206 時点
Claims (10)
- 対象者の体表面を撮影した動画を取得する動画取得手段と、
前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
前記取得した領域の輝度を取得する輝度取得手段と、
前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、
前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する、
ことを特徴とする脈波検出装置。 - 対象者の体表面を撮影した動画を取得する動画取得手段と、
前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
前記取得した領域の輝度を取得する輝度取得手段と、
前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、
前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、
前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、
ことを特徴とする脈波検出装置。 - 対象者の体表面を撮影した動画を取得する動画取得手段と、
前記取得した動画から前記体表面が写っている領域を取得する領域取得手段と、
前記取得した領域の輝度を取得する輝度取得手段と、
前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、を具備し、
前記体表面は顔であり、前記領域取得手段は、前記領域として顔領域を取得し、
前記補正手段は、前記取得した顔領域に当該顔領域に含まれない閉領域がある場合に、当該閉領域を前記顔領域の大きさに含める、
ことを特徴とする脈波検出装置。 - 前記補正手段は、前記顔の前後位置を前記顔領域の大きさによって取得する、
ことを特徴とする請求項2、又は請求項3に記載の脈波検出装置。 - 前記顔を含む前記顔より大きい顔検出領域を取得する顔検出領域取得手段を具備し、
前記領域取得手段は、前記取得した顔検出領域における輝度の分布を用いて前記顔領域を取得する、
ことを特徴とする請求項3に記載の脈波検出装置。 - 前記顔を赤外線で照明する照明手段と、
前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、を具備し、
前記動画取得手段は、前記動画撮影手段から前記動画を取得する、
ことを特徴とする請求項1から請求項5のうちのいずれか1の請求項に記載の脈波検出装置。 - 対象者の顔を赤外線で照明する照明手段と、
前記赤外線で照明した顔を赤外線にて動画撮影する動画撮影手段と、
前記動画撮影手段から前記対象者の顔を撮影した動画を取得する動画取得手段と、
前記取得した動画から前記顔が写っている顔領域を取得する領域取得手段と、
前記取得した顔領域の輝度を取得する輝度取得手段と、
前記取得した動画における、或1のフレーム画像から得られる前記顔の位置を基準とする、他のフレーム画像で得られる前記顔の相対的な前後位置と前記顔領域の輝度の対応関係を用いて前記取得した輝度を補正する補正手段と、
前記顔領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得手段と、
環境明度を取得する環境明度取得手段と、
前記取得した環境明度が所定値未満となった場合に、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始する開始手段と、
を具備したことを特徴とする脈波検出装置。 - 前記環境明度が所定値以上の場合に前記脈波を取得する第2の脈波取得手段を具備し、
前記開始手段は、前記取得した環境明度が所定値未満となった場合に、前記第2の脈波取得手段による前記脈波の取得を停止した後、前記照明手段による照明と、前記動画撮影手段による動画撮影を開始することを特徴とする請求項7に記載の脈波検出装置。 - 請求項1から請求項8までのうちの何れか1の請求項に記載の脈波検出装置を具備した車両装置。
- 対象者の体表面を撮影した動画を取得する動画取得機能と、
前記取得した動画から前記体表面が写っている領域を取得する領域取得機能と、
前記取得した領域の輝度を取得する輝度取得機能と、
前記取得した動画における、或1のフレーム画像から得られる前記体表面の位置を基準とする、他のフレーム画像で得られる前記体表面の相対的な前後位置と前記領域の輝度の対応関係を用いて前記取得した輝度を補正する補正機能と、
前記領域の前記補正した輝度の変化に基づいて前記対象者の脈波を取得する脈波取得機能と、をコンピュータで実現し、
前記体表面は顔であり、前記領域取得機能は、前記領域として顔領域を取得し、
前記補正機能は、前記顔の前後位置を前記顔領域の大きさによって取得する、
ことを特徴とする脈波検出プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167724A JP7204077B2 (ja) | 2018-09-07 | 2018-09-07 | 脈波検出装置、車両装置、及び脈波検出プログラム |
US16/652,447 US11398112B2 (en) | 2018-09-07 | 2019-09-05 | Pulse wave detection device, vehicle device, and pulse wave detection program |
EP19857297.6A EP3847955A4 (en) | 2018-09-07 | 2019-09-05 | PULSE WAVE DETECTION DEVICE, VEHICLE DEVICE AND PULSE WAVE DETECTION PROGRAM |
PCT/JP2019/034946 WO2020050357A1 (ja) | 2018-09-07 | 2019-09-05 | 脈波検出装置、車両装置、及び脈波検出プログラム |
CN201980004822.8A CN111163687B (zh) | 2018-09-07 | 2019-09-05 | 脉波检测装置、车辆装置以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167724A JP7204077B2 (ja) | 2018-09-07 | 2018-09-07 | 脈波検出装置、車両装置、及び脈波検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020039480A JP2020039480A (ja) | 2020-03-19 |
JP7204077B2 true JP7204077B2 (ja) | 2023-01-16 |
Family
ID=69721920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018167724A Active JP7204077B2 (ja) | 2018-09-07 | 2018-09-07 | 脈波検出装置、車両装置、及び脈波検出プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11398112B2 (ja) |
EP (1) | EP3847955A4 (ja) |
JP (1) | JP7204077B2 (ja) |
CN (1) | CN111163687B (ja) |
WO (1) | WO2020050357A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4020981A1 (en) | 2020-12-22 | 2022-06-29 | Axis AB | A camera and a method therein for facilitating installation of the camera |
JPWO2023195148A1 (ja) * | 2022-04-08 | 2023-10-12 | ||
WO2023195149A1 (ja) * | 2022-04-08 | 2023-10-12 | 三菱電機株式会社 | 脈波推定装置、状態推定装置、及び、脈波推定方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130996A (ja) | 2009-12-25 | 2011-07-07 | Denso Corp | 生体活動計測装置 |
JP2014000246A (ja) | 2012-06-19 | 2014-01-09 | Mitsubishi Electric Engineering Co Ltd | 血管可視化装置および血管可視化方法 |
WO2016104538A1 (ja) | 2014-12-24 | 2016-06-30 | 旭化成株式会社 | 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器 |
JP2016193021A (ja) | 2015-03-31 | 2016-11-17 | 株式会社エクォス・リサーチ | 脈波検出装置、及び脈波検出プログラム |
WO2017033669A1 (ja) | 2015-08-26 | 2017-03-02 | 株式会社トプコン | 血流計測装置 |
JP2018114266A (ja) | 2017-01-19 | 2018-07-26 | パナソニックIpマネジメント株式会社 | 脈波計測装置、制御方法、及び、プログラム |
JP2018117726A (ja) | 2017-01-23 | 2018-08-02 | アルパイン株式会社 | 生体センサ制御装置および生体センサ制御方法 |
WO2019102535A1 (ja) | 2017-11-22 | 2019-05-31 | 日本電気株式会社 | 脈波検出装置、脈波検出方法、及び記憶媒体 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6266370B1 (en) * | 1996-09-03 | 2001-07-24 | Nippon Telegraph And Telephone Corporation | Brightness-variation compensation method and coding/decoding apparatus for moving pictures |
US7602942B2 (en) * | 2004-11-12 | 2009-10-13 | Honeywell International Inc. | Infrared and visible fusion face recognition system |
DE602006009191D1 (de) * | 2005-07-26 | 2009-10-29 | Canon Kk | Bildaufnahmegerät und -verfahren |
JP2009087232A (ja) * | 2007-10-02 | 2009-04-23 | Toshiba Corp | 人物認証装置および人物認証方法 |
AU2011244921B8 (en) * | 2011-11-01 | 2014-04-03 | Canon Kabushiki Kaisha | Method and system for luminance adjustment of images in an image sequence |
JP2014161355A (ja) * | 2013-02-21 | 2014-09-08 | Olympus Corp | 画像処理装置、内視鏡装置、画像処理方法及びプログラム |
US20150379362A1 (en) * | 2013-02-21 | 2015-12-31 | Iee International Electronics & Engineering S.A. | Imaging device based occupant monitoring system supporting multiple functions |
JP6102433B2 (ja) | 2013-03-29 | 2017-03-29 | 富士通株式会社 | 脈波検出プログラム、脈波検出方法および脈波検出装置 |
WO2015095760A1 (en) * | 2013-12-19 | 2015-06-25 | The Board Of Trustees Of The University Of Illinois | System and methods for measuring physiological parameters |
JPWO2016006027A1 (ja) * | 2014-07-07 | 2017-04-27 | 富士通株式会社 | 脈波検出方法、脈波検出プログラム及び脈波検出装置 |
US9767358B2 (en) * | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
JP6683367B2 (ja) * | 2015-03-30 | 2020-04-22 | 国立大学法人東北大学 | 生体情報計測装置、生体情報計測方法及び生体情報計測プログラム |
JP6455761B2 (ja) * | 2015-03-31 | 2019-01-23 | 株式会社エクォス・リサーチ | 脈波検出装置、及び脈波検出プログラム |
RU2715521C2 (ru) * | 2015-06-16 | 2020-02-28 | Айверифай Инк. | Системы и способы для обнаружения обманных объектов и анализа жизненности |
CN107370955A (zh) | 2017-08-21 | 2017-11-21 | 深圳市天视通电子科技有限公司 | 可自动切换日夜模式的网络摄像机、实现方法及监控系统 |
US10956714B2 (en) * | 2018-05-18 | 2021-03-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
-
2018
- 2018-09-07 JP JP2018167724A patent/JP7204077B2/ja active Active
-
2019
- 2019-09-05 EP EP19857297.6A patent/EP3847955A4/en active Pending
- 2019-09-05 US US16/652,447 patent/US11398112B2/en active Active
- 2019-09-05 WO PCT/JP2019/034946 patent/WO2020050357A1/ja unknown
- 2019-09-05 CN CN201980004822.8A patent/CN111163687B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130996A (ja) | 2009-12-25 | 2011-07-07 | Denso Corp | 生体活動計測装置 |
JP2014000246A (ja) | 2012-06-19 | 2014-01-09 | Mitsubishi Electric Engineering Co Ltd | 血管可視化装置および血管可視化方法 |
WO2016104538A1 (ja) | 2014-12-24 | 2016-06-30 | 旭化成株式会社 | 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器 |
JP2016193021A (ja) | 2015-03-31 | 2016-11-17 | 株式会社エクォス・リサーチ | 脈波検出装置、及び脈波検出プログラム |
WO2017033669A1 (ja) | 2015-08-26 | 2017-03-02 | 株式会社トプコン | 血流計測装置 |
JP2018114266A (ja) | 2017-01-19 | 2018-07-26 | パナソニックIpマネジメント株式会社 | 脈波計測装置、制御方法、及び、プログラム |
JP2018117726A (ja) | 2017-01-23 | 2018-08-02 | アルパイン株式会社 | 生体センサ制御装置および生体センサ制御方法 |
WO2019102535A1 (ja) | 2017-11-22 | 2019-05-31 | 日本電気株式会社 | 脈波検出装置、脈波検出方法、及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN111163687A (zh) | 2020-05-15 |
WO2020050357A1 (ja) | 2020-03-12 |
US20200285832A1 (en) | 2020-09-10 |
CN111163687B (zh) | 2023-11-21 |
US11398112B2 (en) | 2022-07-26 |
EP3847955A1 (en) | 2021-07-14 |
JP2020039480A (ja) | 2020-03-19 |
EP3847955A4 (en) | 2022-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020203915A1 (ja) | 脈波検出装置、及び脈波検出プログラム | |
JP7204077B2 (ja) | 脈波検出装置、車両装置、及び脈波検出プログラム | |
Eriksson et al. | Driver fatigue: a vision-based approach to automatic diagnosis | |
JP6308161B2 (ja) | 脈波検出装置、及び脈波検出プログラム | |
JP6338701B2 (ja) | 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム | |
JPWO2016159150A1 (ja) | 脈波検出装置、及び脈波検出プログラム | |
JP2007264785A (ja) | 眠気検出装置 | |
WO2016193030A1 (en) | Sleep monitoring method and system | |
JP2007229218A (ja) | 覚醒度推定装置及びシステム並びに方法 | |
KR20190083155A (ko) | 운전자 상태 검출 장치 및 그 방법 | |
JP2012000280A (ja) | 脳波推定装置、脳波推定方法及びプログラム | |
JP3116638B2 (ja) | 覚醒状態検知装置 | |
JP6455761B2 (ja) | 脈波検出装置、及び脈波検出プログラム | |
JP3127760B2 (ja) | 運転者の覚醒度検出装置 | |
Khan et al. | Efficient Car Alarming System for Fatigue Detectionduring Driving | |
Riztiane et al. | Driver drowsiness detection using visual information on android device | |
JP7161704B2 (ja) | 脈拍数検出装置、及び脈拍数検出プログラム | |
WO2008020458A2 (en) | A method and system to detect drowsy state of driver | |
JP2000040148A (ja) | 居眠り運転防止装置 | |
CN115349824A (zh) | 健康预警方法、装置、计算机设备及存储介质 | |
JP7174358B2 (ja) | 脈拍数検出装置、及び脈拍数検出プログラム | |
JP7209947B2 (ja) | 脈拍数検出装置、及び脈拍数検出プログラム | |
WO2023195149A1 (ja) | 脈波推定装置、状態推定装置、及び、脈波推定方法 | |
WO2023195148A1 (ja) | 脈波推定装置、状態推定装置、及び、脈波推定方法 | |
P Mathai | A New Proposal for Smartphone-Based Drowsiness Detection and Warning System for Automotive Drivers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7204077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |