JP7499256B2 - ドライバの挙動を分類するためのシステムおよび方法 - Google Patents
ドライバの挙動を分類するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7499256B2 JP7499256B2 JP2021536674A JP2021536674A JP7499256B2 JP 7499256 B2 JP7499256 B2 JP 7499256B2 JP 2021536674 A JP2021536674 A JP 2021536674A JP 2021536674 A JP2021536674 A JP 2021536674A JP 7499256 B2 JP7499256 B2 JP 7499256B2
- Authority
- JP
- Japan
- Prior art keywords
- events
- interest
- vehicle
- data
- velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000012545 processing Methods 0.000 claims description 74
- 230000001133 acceleration Effects 0.000 claims description 43
- 230000006399 behavior Effects 0.000 claims description 37
- 239000013598 vector Substances 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 21
- 238000010801 machine learning Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 18
- 238000005096 rolling process Methods 0.000 claims description 9
- 230000028838 turning behavior Effects 0.000 claims description 7
- 241001465754 Metazoa Species 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004884 risky behavior Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000012502 risk assessment Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241000282994 Cervidae Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010049976 Impatience Diseases 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 231100000279 safety data Toxicity 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本開示は、車両がドライバによってどのように操作されるかを分類するように自動車などの車両に関連付けられたテレマティクスデータを処理するためのデータ処理技術およびシステムを記載する。画像データは、センサ(例えば、スマートフォンセンサ、埋め込みテレマティクスデバイス、または車両における同様のデバイスのセンサなど)によって取得されたテレマティクスデータ(例えば、位置データ、速度データ、加速データなど)と併せて処理される。画像データ(例えば、ビデオデータ)は、テレマティクスデータ用のコンテキストを提供するように、処理システムによって処理され用いられる。画像データおよびテレマティクスデータは、ドライバの運転挙動を識別するように、生じている運転操作、ドライバの運転品質のスコア付け、またはそれらの組合せを決定するように、処理システムによって分類される。
オブジェクトクラス、時間、x位置、y位置、幅、高さ
の形態の、一連のオブジェクト検出を生成することができる。
さらに、検出が付与されると、例えば、機械学習(GOTURN)、光学フロー、または他の視覚的コヒーレンス方法のいずれかに基づくオブジェクト追跡方法は、オブジェクトを経時的に追うように用いられることが可能であり、時刻t1にて検出されたクラスCのオブジェクトが付与されると、時刻t2におけるオブジェクトクラスCの後の検出が同一のオブジェクトであるかを決定するように用いられることが可能である。
相対速度超過
相対速度超過は、車両118が、その車両118に近接する環境における他の車両の実勢速度にて、または実質的にその速度を超えてもしくはその速度以下にて動いているかとして定められる。他の車両よりも遥かに速くまたは遅く運転することは、危険であると推定され得る。コンテキストの速度超過を決定するための方法は、各オブジェクトの速度を、カメラ102からのオブジェクトの相対距離の変化を経時的に測定することによって見積ることを含むことが可能である。時刻T1にて位置D1にあるオブジェクトO(後に、時刻T2にて位置D2にある)が与えられると、車両118に対するOの速度は、(D2-D1)/(T2-T1)として定められることが可能である。
W中に2回以上検出された1組のすべての車両Vが付与されると、
Vにおける各別個のvについて、Wにおける時刻Tv1にて最初におよびWにおける時刻Tv2にて最後に、対応する「y軸」位置Dv1およびDv2(y軸の原点は観察する車両の位置である)とともに検出される。
カウント=カウント+1とする。
Sv>速度閾値の場合
閾値カウント=閾値カウント+1
Sv<-速度閾値の場合
閾値カウント=閾値カウント-1
相対速度スコア=閾値カウント/カウント
したがって、相対速度スコアは、特定の期間にわたって他の車両の一部が車両118よりも大幅に遅くまたは速く動いていることを示す、-1と1との間の数であることが可能である。総合的なドライバの危険を評価するためのこの尺度(メトリック;metric)の特定の使用は、後にさらに詳細に記載される。
他の車両を、特に高速道路において非常に近くにて追尾すると、危険な挙動と推定され得る。車間距離は、相対速度超過と同様の方法により計算されることが可能である。例えば、車間距離の尺度は、ウィンドウ中の時間の一部が、車両118がその車両のいくつかの閾値距離以内(例えば、別の車両の後方にて10フィート(3メートル)未満)の別の車両の近くにて動作されていたときに、0と1との間の数字であることが可能である。
ウィンドウW=[T1,T2]中に検出された検出セットにおける1組のすべての車両が付与される
検出セットにおける各vについて、d=v.y位置(すなわち、車両に対する距離)とする
d<閾値Xの場合
近接カウント=近接カウント+1とする
カウント=カウント+1とする。
総合的なドライバの危険を評価するためのこの尺度の特定の使用が後により詳細にように記載される。
「交通規制の」状況は危険な傾向があり得るため、高い交通密度のエリアにおける運転は、衝突の見込みを増加させ得る。いくつかの実装では、交通密度は、付与された時間ウィンドウにおける車両118に近接した他の車両の数を測定することによって見積もられる。しかしながら、車両118に対し反対方向に進行する他の車両を測定することを避けるため、画像データ112およびセンサデータ114は、車両118と同一方向に進行する他の車両の数を測定するように用いられることが可能である。例えば、車両118に対し同一方向に進行する他の車両は、画像データ112においてある時間ウィンドウにおいて2回以上検出された他の車両を識別することによって測定されることが可能である。これは、多くの例において、車両118に対し反対方向に進行する他の車両は、少なくない画像フレームについて視認されそうもないという事実を利用する。特定の他の車両が閾値数のフレーム(例えば、動的または静的閾値)より多くのフレームに存在する場合、特定の他の車両が同一方向に進行すると識別されることが可能である。閾値は、車両118の速度および車両118の位置などの環境因子に依存して、動的に設定されることが可能である。例えば、車両119が動いていない(例えば、駐車している)場合、交通密度の尺度は無視されることが可能である。しかしながら、車両118が動いていないものの動くために示された車道区画にある場合、車両118は赤信号にて停止していると決定されることが可能であり(例えば、システム100は、車両118が、赤信号に起因して静止位置にあると決定することが可能である)、または、車両118が「交通渋滞」イベントにあると決定されることが可能である。以下の測定、すなわち
密度の危険=時間ウィンドウ中に2回以上検出された他の車両Vの数
を用いると、「交通密度危険スコア」が総合的なドライバの危険を評価するように用いられることが可能である。総合的なドライバの危険を評価するためのこの尺度の使用の例は、以下にさらに詳細に記載される。
ローリングで停止標識を通過(例えば、車両118が停止標識を通過して前進する前に完全な停止にならないとき)および黄/赤信号を通り過ぎる加速は、両方とも、画像データ112から検出されることが可能である危険な操作と考えられ得る。車両118が停止標識または信号機を通過して前進するとき、システム100は、車両118がその停止標識または信号機を通過して前進する前に減速または停止し損なうかを決定することが可能である。例えば、システム100は、画像データ112を用いて停止標識または赤信号を識別し、次いで、標識または信号を観察して数秒以内に車両118が完全な停止になるかを決定することが可能である。いくつかの例では、停止標識は、システム100によって検出されてよいが、車両118の進行の方向にない場合がある。そうした例では、システム100は、停止標識または信号機を無視することが可能である。そうした決定は、他のデータに基づいて(車両118内または車両118上のカメラ102の配置/配向、画像データ112の後続のフレームにおける標識/信号の位置、車両118の位置などに基づいてなど)行われることが可能である。
いくつかの例では、車両118を旋回させることは危険と考えられ得、対面交通に対する左折(右側運転の国において)は特に危険であり得る。画像データ112を用いると、システム100は、左折が「保護されない」とき(例えば、交通信号が旋回を特に認める左折矢印を示さない、また、車両118が旋回を完了させるために対面交通を横切る必要があるように対面交通が存在するとき)を識別することが可能である。
車両118の経路に突然出現する動物などの予期できないイベントによる急制動イベントまたは厳しい制動イベントは、ドライバの将来的な危険の予兆とは必ずしもなり得ない。この理由のため、画像データから推測可能なコンテキストに基づいて、危険の様々なレベルを様々な急制動イベントまたは厳しい制動イベントに対し割り当てることが有益であり得る。
検出されたオブジェクト=VDにおけるすべてのオブジェクトvとする。ここで、v.y距離<T1メートルかつ|v.x距離|<T2メートル(ここで、T1およびT2は構成可能な閾値、例えば、5メートルおよび2メートル)
コンテキスト停止尺度=危険関数(検出されたオブジェクト、イベント規模)とする。
厳しい天候は、視認性を低下させ得ることが多く、運転の危険を増加させる。カメラ102によってキャプチャされた画像データ112は、視認性を測定するように用いられることが可能である。例えば、システム100は、画像データ112によって示された総合的な歪みを評価すること、総合的な明るさおよび輝き(例えば、カメラ102の開口によって生じる変化を考慮する)を見積もること、またはその両方を行うことが可能である。いくつかの実装では、車両102のドライバが完全にオブジェクトを観察できないときの危険を帰属させるように、システム100は、時間ウィンドウWにおける検出された車両(またはオブジェクト)最大y距離と全時間にわたってすべての検出された車両のy距離のk番目のパーセンタイル値との比率を測定することが可能である(ここで、kは構成可能なパラメータであり、いくつかの実装では95である)。いくつかの実装では、システム100は、以下に係る動作を行う。
ウィンドウ最大=0とする。
付与された時間ウィンドウW=[T1,T2]間、V=[T1,T2]におけるすべての車両検出とする。
視認性尺度=0とする。
ウィンドウ最大>0かつウィンドウ最大/最大過去Y<vis閾値である場合、
視認性尺度=log(1/ウィンドウ最大/最大過去Y)とする。
したがって、いくつかの例では、視認性尺度は、時間ウィンドウにおける車両について検出された最大距離に反比例する。この尺度が、低下した視認性に起因するドライバの危険を評価するようにどのように用いられ得るかについてのさらなる詳細が、後に記載される。
横断歩道における歩行者のために自身の車両を停止させないドライバは、歩行者の負傷を生じる危険があり得る。これに加えて、歩行者が居る横断歩道における停止し損ないは、ドライバの注意散漫、または焦燥(それ自身が危険な運転挙動に関連し得る)の表れであることもある。いくつかの実装では、システム100は、以下に係る挙動を検出する。
P=検出された各歩行者オブジェクトpとし、ここで横断歩道オブジェクトも存在し、歩行者と横断歩道とのy距離が互いのDメートル以内であり、ここでDは構成可能な閾値、典型的には1メートルであり、歩行者の検出されたバウンディングボックスが横断歩道の検出されたバウンディングボックスに重なり、歩行者が横断歩道にいることを示し、Pに対するy距離が<D横断であり、ここでD横断はドライバが横断歩道の近くにいる(典型的には10メートル)ことを示す構成可能なパラメータであり、ここでD横断は車両の速度に依存してよい。
Pの各pについて、減速を、車両がいくらかの速度<S横断(ここで、S横断は構成可能なパラメータ、典型的には5m/s)に減速しなかったかを示す、すなわち、横断歩道が近づくときに車両が減速したことを示す二進変数とする。
したがって、歩行者尺度は、車両が減速し損なった、歩行者が居る横断歩道の数の測定であることが可能である。歩行者尺度が、ドライバの横断歩道関連危険についてスコア付けするようにどのように用いられるかに関するさらなる詳細が後に記載される。
システム100は、各ドライバについて、特定の危険挙動に対する自身の露出の程度を示す危険スコアのベクトルを生成する例えば、危険ベクトルは、注意散漫の危険、制動の危険、および相対速度超過の危険のうちの1つまたは複数であることが可能である。
システム100は、1つまたは複数の相対速度超過スコアを決定することができる。例えば、システム100は、ドライバが実勢速度以下において車両を運転する頻度に対して決定される低速スコア、およびドライバが実勢速度を超えて運転する頻度に対する高速スコアを計算することが可能である。
車間距離についての危険スコアを計算することは、車両118が、他の車両を近接して「テールゲーティング」することが、他の区画(例えば、住宅地の道路)より危険である区画(例えば、高速道路区画)において動作していた期間を識別すること、次いでテールゲーティングに費やした時間の総量に基づいて「追尾危険スコア」を蓄積することを含むことが可能である。車両118が幹線道路区画(前に記載されたように、マップ一致により推測されることが可能である)を横断した一連の期間が与えられると、システム100は、それらの期間を最大T分のウィンドウへと分割することができ、各ウィンドウについて車間距離尺度を決定することができる。システム100は、車間距離尺度がいくつかの閾値(例えば、0.25)を超えたとき、各そうしたウィンドウについて総合的な追尾スコアを1増加させることができる。このようにして、システム100は、ドライバが車両118を経時的に他の車両に対し近接して動作させる(例えば、テールゲーティング)際に、車間距離危険尺度を蓄積することが可能である。
システム100は、ドライバの運転時間のすべてを長さT以下の間隔へと分割し、密度尺度がD個の車両を超えたときにそうした間隔の数を測定することとによって、交通密度についての危険スコア決定することが可能である。値Dは、ピクセルの数に対して相当のばらつきが存在し得るため、使用時のカメラ102およびオブジェクト検出器の解像度に基づいて選択されることが可能である。特定の他の車両は異なるオブジェクト検出器によって識別されるように占有する必要がある。
システム100は、スコアリング期間中(例えば、2週間)の不停止の数を測定することによって、し損なった/ローリング停止についての危険スコアを決定することが可能である。いくつかの実装では、いくつかの不停止は、他より高く重み付けされてよい。例えば、車両118が、停止標識を通過してある速度より速く(例えば、15マイル毎時(24キロメートル毎時))前進する場合、不停止は、車両118が黄信号を通過して前進するまたは停止標識を通過して遅く前進する(例えば、2マイル毎時(3.2キロメートル毎時))例よりも高く重み付けされることが可能である。
システム100は、ドライバについて決定された算出された旋回尺度のすべてを合算することによって、安全でない旋回についての危険スコアを決定することが可能である。
システム100は、コンテキスト化された急停止を、コンテキスト化された急停止尺度のすべての急制動イベントにわたる合算として決定することが可能である。いくつかの実装では、このコンテキスト化された危険尺度は、非画像向上制動危険の代わりに、または非画像向上制動危険とともに用いられてよい。
7.低下した視認性
システム100は、運転時間をT分のウィンドウへと分割し、次いで視認性尺度をすべてのそうしたウィンドウにわたって合算することによって、視認性についての合計危険スコアを決定することが可能である。
システム100は、横断歩道尺度をすべての運転時間にわたって合算することによって、横断歩道挙動についての合計危険スコアを決定することが可能である。いくつかの実装では、尺度は異なる道路の種類について別々に決定されることが可能であり、より速い車両を有するより大きい道路(例えば、軽い交通量を有する高速道路)は、より遅い車両を有するより小さい道路(例えば、住宅地区)よりも高く重み付けされるように、スケーリングされることが可能である。
スマートフォンベースの画像解析の困難は、カメラによって生成されたデータの容量をある帯域幅および電力効率にて扱うことに関連し得る。このデータを処理、送信、および記憶することは、スマートフォンのバッテリを激減させ、貴重なネットワーク帯域幅を使用し、またサーバ上の大容量のストレージを消費することがある。
電話または処理デバイスが十分な電力を有する(例えば、接続されている)とき
V=いくつかの規則的な間隔(例えば、毎秒1回)にてサンプリングされたビデオフレームの組とする
Vにおける各未処理フレームfについて
E=fの周りの対象のイベント(例えば、粗暴な制動、速度超過など)とする
C=fの周りの運転コンテキスト(例えば、高速道路対非高速道路、都会対田舎)とする
H=fの周りの検出器履歴(例えば、最後のものがK秒前に検出器を実行)
処理するか?(f、E,C,H)
D=検出器を選択(f、E,C,H)とする
fD=D(f)とする//検出器を実行
fDが空でない場合
fDを検出器として保存
fDをサーバに対する送信用に加える
fを処理済みとして表示
したがって、フレームを処理するかの選択は、フレームがキャプチャされた時刻におけるイベント、運転コンテキスト(例えば、車両118が高速道路を横断していたか)、およびフレームが解析された最後の時刻にてどのくらい前に何が検出されたかに依存する(例えば、車両118が密集した都会環境において低速にて動いているとき、車両118が田舎環境において高速に動いているときほど頻繁に新たなフレームを処理することは有益となり得ない)。使用のためのオブジェクト検出器の選択は、このコンテキスト情報に依存し得る。例えば、異なるオブジェクト検出器が、田舎環境に対して都会において用いられてよい。これは、検出器がオブジェクトのより多くまたはより大きい分類を検出できる必要があるときに、オブジェクト検出器が、オブジェクトを検出するのにより長い時間を必要とし得るため、またより遅くなることが可能であるため、重要であり得る。
Claims (14)
- データ処理システムであって、
1つまたは複数のプロセッサと、
(a)1つまたは複数の時間の間に車両にて生じ得る1つ以上の対象のイベントの、前記車両における1つまたは複数のセンサによってキャプチャされた位置、速度、または加速データからの検出と、(b)前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せの処理と、の対応付けを行って、前記1つ以上の対象のイベントが生じることの予測見込みを決定するように、前記1つまたは複数のプロセッサによって実行可能な命令を記憶しているメモリと、を備え、
前記(a)と前記(b)との対応付けを行うように前記1つまたは複数のプロセッサによって実行可能な記憶された前記命令は、前記1つまたは複数のプロセッサによって、
前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データを電子的に受信する工程と、
前記1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
電子的に受信された前記画像データと、前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を含む、組合せ処理工程と、
少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を行うように実行可能な記憶された命令を含む、システム。 - 前記対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントを含む、請求項1に記載のシステム。
- 前記画像データは、1つの画像および一連の画像のうちの一方または両方を含む、請求項1に記載のシステム。
- 前記1つまたは複数のプロセッサは、モバイルデバイスまたは車両デバイスの一部である、請求項1に記載のシステム。
- コンピュータ実装方法であって、
車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを受信する工程と、
前記車両における1つ以上の対象のイベントが1つまたは複数の時間の間に生じ得ることを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを受信する工程と、
受信された前記画像データと前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し記憶する工程と、
記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を備える、方法。 - 前記画像データおよび前記位置、速度、または加速データのうちの1つまたは複数は、前処理されたデータを生成するようにモバイルデバイスによって処理され、前記前処理されたデータは、さらなる処理のためにリモートコンピュータ環境に対し送られる、請求項5に記載の方法。
- 前記1つ以上の対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントのうちの1つまたは複数を含む、請求項5に記載の方法。
- 1つまたは複数のプロセッサによって実行可能な命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、前記プロセッサに、
車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを電子的に受信する工程と、
1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
電子的に受信された前記画像データと前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を備える動作を行わせる、非一時的なコンピュータ可読記憶媒体。 - 前記画像データおよび前記位置、速度、または加速データのうちの1つまたは複数は、前処理されたデータを生成するようにモバイルデバイスによって処理され、前記前処理されたデータは、さらなる処理のためにリモートコンピュータ環境に対し送られる、請求項8に記載の非一時的なコンピュータ可読記憶媒体。
- 前記1つ以上の対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントを含む、請求項8に記載の非一時的なコンピュータ可読記憶媒体。
- 前記1つまたは複数のプロセッサは、
前記1つまたは複数の時間の前に、前記車両における前記コンテキストに関する情報を受信する工程と、
前記1つまたは複数の時間の前に、前記車両における前記コンテキストに関する前記情報に少なくとも部分的に基づいて、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされる前記画像データを処理するかを決定する工程と、を行うように構成されている、請求項1に記載のシステム。 - データ処理システムであって、
1つまたは複数のプロセッサと、
(a)1つまたは複数の時間の間に車両にて生じ得る1つ以上の対象のイベントの、前記車両における1つまたは複数のセンサによってキャプチャされた位置、速度、または加速データからの検出と、(b)前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せの処理と、の対応付けを行って、前記1つ以上の対象のイベントが生じることの予測見込みを決定するように、前記1つまたは複数のプロセッサによって実行可能な命令を記憶しているメモリと、を備え、
前記(a)と前記(b)との対応付けを行うように前記1つまたは複数のプロセッサによって実行可能な記憶された前記命令は、前記1つまたは複数のプロセッサによって、
前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データを電子的に受信する工程と、
前記1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
電子的に受信された前記画像データと、前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を含む、組合せ処理工程と、
1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を行うように実行可能な記憶された命令を含む、システム。 - コンピュータ実装方法であって、
車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを受信する工程と、
前記車両における1つ以上の対象のイベントが1つまたは複数の時間の間に生じ得ることを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを受信する工程と、
受信された前記画像データと前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し記憶する工程と、
記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を備える、方法。 - 1つまたは複数のプロセッサによって実行可能な命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、前記プロセッサに、
車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを電子的に受信する工程と、
1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
電子的に受信された前記画像データと前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を備える動作を行わせる、非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862726916P | 2018-09-04 | 2018-09-04 | |
US62/726,916 | 2018-09-04 | ||
PCT/US2019/049418 WO2020051168A1 (en) | 2018-09-04 | 2019-09-04 | Systems and methods for classifying driver behavior |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021536648A JP2021536648A (ja) | 2021-12-27 |
JPWO2020051168A5 JPWO2020051168A5 (ja) | 2022-10-04 |
JP7499256B2 true JP7499256B2 (ja) | 2024-06-13 |
Family
ID=69641352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021536674A Active JP7499256B2 (ja) | 2018-09-04 | 2019-09-04 | ドライバの挙動を分類するためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (2) | US11315026B2 (ja) |
EP (1) | EP3847070A4 (ja) |
JP (1) | JP7499256B2 (ja) |
AU (1) | AU2019337091A1 (ja) |
CA (1) | CA3110109A1 (ja) |
MX (1) | MX2021002238A (ja) |
SG (1) | SG11202101641YA (ja) |
WO (1) | WO2020051168A1 (ja) |
ZA (1) | ZA202101299B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10096067B1 (en) * | 2014-01-24 | 2018-10-09 | Allstate Insurance Company | Reward system related to a vehicle-to-vehicle communication system |
US11978074B2 (en) * | 2018-09-05 | 2024-05-07 | Mastercard International Incorporated | Driver monitoring system and method |
US10999374B2 (en) | 2019-04-26 | 2021-05-04 | Samsara Inc. | Event detection system |
US11080568B2 (en) | 2019-04-26 | 2021-08-03 | Samsara Inc. | Object-model based event detection system |
US11713047B2 (en) * | 2020-02-21 | 2023-08-01 | Calamp Corp. | Technologies for driver behavior assessment |
US11900657B2 (en) * | 2020-05-21 | 2024-02-13 | Verizon Connect Development Limited | System for automatic stop sign violation identification |
US11679773B2 (en) * | 2020-10-23 | 2023-06-20 | ANI Technologies Private Limited | Augmenting transport services using real-time event detection |
WO2022226283A1 (en) * | 2021-04-22 | 2022-10-27 | NetraDyne, Inc. | Anomalous road signs |
US11898865B1 (en) | 2021-06-03 | 2024-02-13 | Allstate Insurance Company | Using context based machine learning for generation of customized driving outputs |
US20230035856A1 (en) * | 2021-07-20 | 2023-02-02 | Cambridge Mobile Telematics Inc. | Identifying unreliable global navigation satellite system (gnss) data |
US20230267491A1 (en) * | 2022-02-22 | 2023-08-24 | BlueOwl, LLC | Systems and methods for managing insurance |
US11936700B1 (en) * | 2023-02-16 | 2024-03-19 | GM Global Technology Operations LLC | Vehicle video streaming system and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126756A (ja) | 2014-12-26 | 2016-07-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険判定方法、危険判定装置、危険出力装置及び危険判定システム |
JP2017117005A (ja) | 2015-12-21 | 2017-06-29 | 株式会社オートネットワーク技術研究所 | 事故通知システム、通知システム、車載通知装置及び事故通知方法 |
JP2018124823A (ja) | 2017-02-01 | 2018-08-09 | 株式会社デンソーテン | 運転情報記録装置、運転情報表示処理システム、運転情報記録方法、表示処理方法、及び、プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090228172A1 (en) * | 2008-03-05 | 2009-09-10 | Gm Global Technology Operations, Inc. | Vehicle-to-vehicle position awareness system and related operating method |
US9953468B2 (en) * | 2011-03-31 | 2018-04-24 | United Parcel Service Of America, Inc. | Segmenting operational data |
EP2705664A2 (en) | 2011-05-03 | 2014-03-12 | Atsmon, Alon | Automatic image content analysis method and system |
US8457880B1 (en) | 2012-11-28 | 2013-06-04 | Cambridge Mobile Telematics | Telematics using personal mobile devices |
US20150053093A1 (en) | 2013-08-21 | 2015-02-26 | Peter Chung-Yuan Chang | Combination Counter Top Toaster and Food Warmer |
EP2887276A1 (en) | 2013-12-20 | 2015-06-24 | Telefonica Digital España, S.L.U. | Method for predicting reactiveness of users of mobile devices for mobile messaging |
ZA201407981B (en) | 2014-04-29 | 2015-11-25 | Cambridge Mobile Telematics | A system and method for obtaining vehicle telematics data |
US10599155B1 (en) * | 2014-05-20 | 2020-03-24 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
US9836062B1 (en) * | 2015-01-20 | 2017-12-05 | State Farm Mutual Automobile Insurance Company | Analyzing telematics data to determine travel events and corrective actions |
US10460600B2 (en) * | 2016-01-11 | 2019-10-29 | NetraDyne, Inc. | Driver behavior monitoring |
US10747234B1 (en) * | 2016-01-22 | 2020-08-18 | State Farm Mutual Automobile Insurance Company | Method and system for enhancing the functionality of a vehicle |
US10189479B2 (en) | 2016-04-06 | 2019-01-29 | At&T Intellectual Property I, L.P. | Methods and apparatus for vehicle operation analysis |
US20170329332A1 (en) * | 2016-05-10 | 2017-11-16 | Uber Technologies, Inc. | Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object |
US10611379B2 (en) * | 2016-08-16 | 2020-04-07 | Toyota Jidosha Kabushiki Kaisha | Integrative cognition of driver behavior |
WO2018046102A1 (en) | 2016-09-10 | 2018-03-15 | Swiss Reinsurance Company Ltd. | Automated, telematics-based system with score-driven triggering and operation of automated sharing economy risk-transfer systems and corresponding method thereof |
US10262471B2 (en) * | 2017-05-23 | 2019-04-16 | Uber Technologies, Inc. | Autonomous vehicle degradation level monitoring |
-
2019
- 2019-09-04 SG SG11202101641YA patent/SG11202101641YA/en unknown
- 2019-09-04 WO PCT/US2019/049418 patent/WO2020051168A1/en unknown
- 2019-09-04 JP JP2021536674A patent/JP7499256B2/ja active Active
- 2019-09-04 CA CA3110109A patent/CA3110109A1/en active Pending
- 2019-09-04 MX MX2021002238A patent/MX2021002238A/es unknown
- 2019-09-04 EP EP19857258.8A patent/EP3847070A4/en active Pending
- 2019-09-04 AU AU2019337091A patent/AU2019337091A1/en active Pending
- 2019-09-04 US US16/559,711 patent/US11315026B2/en active Active
-
2021
- 2021-02-25 ZA ZA2021/01299A patent/ZA202101299B/en unknown
-
2022
- 2022-04-25 US US17/728,060 patent/US20220327406A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126756A (ja) | 2014-12-26 | 2016-07-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 危険判定方法、危険判定装置、危険出力装置及び危険判定システム |
JP2017117005A (ja) | 2015-12-21 | 2017-06-29 | 株式会社オートネットワーク技術研究所 | 事故通知システム、通知システム、車載通知装置及び事故通知方法 |
JP2018124823A (ja) | 2017-02-01 | 2018-08-09 | 株式会社デンソーテン | 運転情報記録装置、運転情報表示処理システム、運転情報記録方法、表示処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3847070A4 (en) | 2021-11-10 |
BR112021003944A2 (pt) | 2021-05-18 |
SG11202101641YA (en) | 2021-03-30 |
WO2020051168A1 (en) | 2020-03-12 |
US20220327406A1 (en) | 2022-10-13 |
EP3847070A1 (en) | 2021-07-14 |
JP2021536648A (ja) | 2021-12-27 |
US11315026B2 (en) | 2022-04-26 |
US20200074326A1 (en) | 2020-03-05 |
ZA202101299B (en) | 2022-10-26 |
MX2021002238A (es) | 2021-08-11 |
AU2019337091A1 (en) | 2021-03-11 |
CA3110109A1 (en) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7499256B2 (ja) | ドライバの挙動を分類するためのシステムおよび方法 | |
US11990036B2 (en) | Driver behavior monitoring | |
US20220262239A1 (en) | Determining causation of traffic events and encouraging good driving behavior | |
US11688174B2 (en) | System and method for determining vehicle data set familiarity | |
US10166934B2 (en) | Capturing driving risk based on vehicle state and automatic detection of a state of a location | |
WO2017123665A1 (en) | Driver behavior monitoring | |
US10839263B2 (en) | System and method for evaluating a trained vehicle data set familiarity of a driver assitance system | |
CN111094095B (zh) | 自动地感知行驶信号的方法、装置及运载工具 | |
US20220238019A1 (en) | Safety performance evaluation apparatus, safety performance evaluation method, information processing apparatus, and information processing method | |
JP2022532941A (ja) | 車両信号を処理して挙動危険性の測度を計算するための装置及び方法 | |
US20220114815A1 (en) | Moving body collision avoidance device, collision avoidance method and electronic device | |
CN117416344A (zh) | 自主驾驶系统中校车的状态估计 | |
CN114333339B (zh) | 深度神经网络功能模块去重复的方法 | |
US20210405641A1 (en) | Detecting positioning of a sensor system associated with a vehicle | |
CN114868381A (zh) | 图像处理装置、图像处理方法以及程序 | |
KR102340902B1 (ko) | 스쿨존을 모니터링하는 장치 및 방법 | |
BR112021003944B1 (pt) | Sistema de processamento de dados e método implementado por computador e meio de armazenamento legível por computador não transitório |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220926 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230404 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230703 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240202 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7499256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |